Gå til innhold

AMD Polaris & Vega og midlertidig (?) Navi


ExcaliBuR
Gjest

 

Anbefalte innlegg

Videoannonse
Annonse

Når man har motstridende data, så må man vel lure på hvem som har de korrekte data'ene? Jeg har for lengst gjort det klart at jeg ser på HWUB som gullstandarden når det gjelder benchmarks, og det har du faktisk ikke motsagt før nå... Nå som deres data viser at din forutsigelse var feil. Merkelige greier det der...

 

-snip-

 

Jeg hadde forøvrig ikke tenkt å ta opp at du bommet overhodet. Din forutsigelse var nærme nok til at jeg ikke bryr meg, noen prosent frem eller tilbake her og der vet vi jo kommer. Men når du så klapper deg på selv på skulderen for å ha forutsett denne ytelsen, men må dra frem reviews som tester på en måte som ihvertfall du burde forstå er feil, så blir det litt for dumt for meg...

Jeg må innrømme at jeg ikke hadde sjekket mer enn fire anmeldelser da jeg skrev at min spådom traff bra. Etter å ha sjekket Gamers Nexus, Bit-tech, Hexus, Tom's Hardware, Guru3D, Tweaktown, og Phoronix i tillegg er det tydelig at kortet ligger litt nærmere 2080 enn jeg først antok (jeg spådde feil).

Techpowerup er altså et unntak fordi spillutvalget straffer Radeon litt mer enn de fleste andre, mens Techspot og Phoronix' utvalg hjelper Radeon litt mer enn de fleste andre.

 

Angående FE-klokkefrekvenser, hvor mange kort har du sett testet der ytelsen er betraktelig verre enn FE? Hvor mye slår FE-overklokken ut på ytelse i praksis?

 

Techreport var de første til å teste tid per bilde (2011), da for å undersøke hvorfor Crossfire og SLI var uspillbart i mange tilfeller. De plasserte også Vega 64 godt bak GTX 1080.

 

 

 

Når det er sagt, kan du være like kritisk til AdoredTV når han bommer med sine spådommer?

  • Liker 1
Lenke til kommentar

Måtte være deg som spiller på TV :p

 

Prøv skjerm du, så blir det bedre ;)

 

Don't knock it until you've tried it. ;)

 

Greia er at jeg ser ikke stor forskjell på 1440p og 4K på en 27" skjerm. 4K@60Hz på 78" derimot... Prøv, så skal du få se hva det er som er bedre... ;) (Hva tror du Forza Horizon 4 er gøyest på av 27" og 78"? ;) )

 

40-50ish fps er fortsatt dritt selv om du har free-sync ;)

2080ti kan sett på vsync å gasse på med res scale

 

Hadde du hatt magemål til å sammenligne med 2080 så kanskje, men 2080ti  :nei:

 

Du er nå litt søt også da, du vet åpenbart ikke helt hva du snakker om, men MÅ være med i diskusjonen likevel...

 

Jeg snakket om en 4K TV med Freesync over HDMI, og 60Hz input. Om det er PCMR syndromet som gjør at du ikke evner å skjønne at for noen går det mer enn fint an å spille selv i 30 fps (er vel omtrent 100 mill på Playstation alene som gjør det da), så er det jo ikke så mye mer å diskutere. Men jo, 40 - 50 fps blir faktisk en markant forbedring over nevnte konsoll fps, og det er nok av folk som ville vært overlykkelige om de fikk det ut av konsollen sin...

 

Men Res scale? seriøst? Rendre i 1800p for eksempel for å sikre 1% low framtimes tilsvarende over 60 fps? Din løsning er å degradere grafikken med 2080Ti for å matche opplevelsen med et Radeon VII? Du skjønner sikkert når du tenker deg om at det ikke er å sammenlikne epler med epler, sant? Det er flere spill som tvinger 2080Ti i kne ved "Ultra" i 4K allerede. Og selvsagt kan man sette ned grafikken slik at 2080Ti klarer 60 fps med VSync hele tiden, det kan man forøvrig med et GTX1060 også det, er jo bare å gå langt nok ned det. Men da blir jo grafikken dårligere på 2080Ti enn på Radeon VII om man beholder "Ultra" på R7. Er du med?

 

Uansett så er det altså 2080Ti som må gjøre kompromisset. For når vi er nede i 60Hz, så betyr det at en eneste missed frame med 2080Ti, gjør at samme bildet blir stående på skjermen i 33,3ms. De som er vant med 144Hz skjerm, er vant med at hvert bilde henger på skjermen i kun ~14ms om en frame henger over en refresh. 33,3ms er en evighet sammenliknet, og strengt tatt utilgivelig for et skjermkort i den prisklassen.

 

Jeg tror rett og slett ikke du helt har forstått hvor lite imponerende RTX2080Ti egentlig er. Det er faktisk bare ~30% raskere enn 2080 kortet ditt. Hvor mye over 60 fps tror du du må i gjennomsnitt, for å ikke droppe så mange frames at det blir verre enn en jevn flyt av 30 fps? Med RTX2080Ti blir det altså "livsviktig" å evne å rendre mange flere frames enn skjermens maks frekvens, kun for å kaste de frame'ene i søpla, mens et R7 på en Freesync TV kan omtrent bare tute og kjøre.

 

La meg snu på problemstillingen: La oss si 2080Ti klarer å rendre en frame på 10ms til nevnte TV. Hvor lang tid har R7 på seg for å være like bra? 16,7ms, ikke sant? La oss så si vi kommer inn i et område som er tungt å drive i 4K, selv for 2080Ti, og det bruker 16,8 ms på å rendre en frame. Hvor lang tid har R7 på seg da, for å yte bedre enn 2080Ti'en?...

 

Svaret er at alt under 33,3ms vil være bedre enn hva 2080Ti'en nettopp gjorde, fordi med Freesync vil bildet komme opp på skjermen umiddelbart etterpå. Så om 2080Ti er, la oss til og med si 40% raskere enn R7. Så betyr det at R7 nettopp brukte ~24ms på å rendre bildet tilsvarende ~42fps. Hmmm, hva er best mon tro? 42 fps som man nettopp fikk med R7, eller 30 fps som 2080Ti nettopp presterte... Åja, dumme meg, det er jo bare å sette ned grafikken på 2080Ti... Sånn var det ja...

  • Liker 1
Lenke til kommentar

det er sikkert ikke bare jeg som sitter som et spørsmålstegn etter den posten. skriver du alt det for at din tv kun støtter hdmi? freesync fungerer fint på nvidia nå via displayport. om man bare må ha freesync via hdmi på et nvidia kort kan man det om man kjører displayout via hdmi som støtter freesync, feks 2400g med vega 11. som ble bevist før nvidia begynte å støtte freesync.

  • Liker 3
Lenke til kommentar

Snip

Der kom "wall of text" som du alltid bruker for å vinne en diskusjon :eek:

I dem aller fleste tilfeller så kan du øke render scale i 4k når målet bare er 4k@60 for å øke bildekvalitet å gjerne fjerne dritt som fxaa eller taa ;)

 

Tror rett og slett du ikke evner å forstå hvor mye kraftigere ett overklokket 2080Ti (typ 2100-2200Mhz samt 1000+ på minnet) er en Vega 2 som ikke overklokker dritten (sannsynligvis).

 

EDIT: Så har vi DLSS som ser svært lovende ut om vi skal se på ytelsen og bildekvaliteten i den nye 3dmark testen.

Overhengende fare for at ditt 2070 kort vil parkere vega2 i 4k fremover i relevante spill

Endret av Mumriken
  • Liker 2
Lenke til kommentar

Hjelpe meg, jeg vurderer faktisk å kjøpe ett! :p Verdens beste skjermkort for 4K Freesync TV spilling "skuffer" selv om det vil gi like god, eller til og med bedre opplevelse enn et 50% dyrere 2080Ti. Nå mangler jeg bare 4K Freesync TV! :p

Nå som Nvidia også støtter Freesync, så ser jeg absolutt ingen grunn til å gå for Radeon 7. Det eneste må jo være visst man virkelig har behov for 16GB minne.

 

Edit: Tenkte ikke på at Nvidia ikke støtter Freesync over HDMI.

Endret av TheKims
  • Liker 1
Lenke til kommentar

det er sikkert ikke bare jeg som sitter som et spørsmålstegn etter den posten. skriver du alt det for at din tv kun støtter hdmi? freesync fungerer fint på nvidia nå via displayport. om man bare må ha freesync via hdmi på et nvidia kort kan man det om man kjører displayout via hdmi som støtter freesync, feks 2400g med vega 11. som ble bevist før nvidia begynte å støtte freesync.

 

TV'er har for det aller meste ikke Display Port innganger. Så om man kjøper en av de nye TV'ene med Freesync støtte, så er det kun over HDMI man får det. Veldig få vil nok sette et RTX2080Ti sammen med en 2400G i samme maskin. Men joda, det er jo en mulighet det. ;)

 

Poenget mitt var at selv om det er en nisje, og at det ikke er mange som kommer til å bruke PC med sin 4K Freesync TV, så er det altså uansett ett område der det ikke gir mening å bruke 50% mer på 2080Ti over R7. Og det gjør til nettopp dette bruksområdet R7 til et mindre dumt kjøp en mange nok ellers vil ha det til å være...

 

Der kom "wall of text" som du alltid bruker for å vinne en diskusjon :eek:

I dem aller fleste tilfeller så kan du øke render scale i 4k når målet bare er 4k@60 for å øke bildekvalitet å gjerne fjerne dritt som fxaa eller taa ;)

 

Tror rett og slett du ikke evner å forstå hvor mye kraftigere ett overklokket 2080Ti (typ 2100-2200Mhz samt 1000+ på minnet) er en Vega 2 som ikke overklokker dritten (sannsynligvis).

 

Og der kom unnskyldningen som fritar deg fra å svare på noe som helst fra min "Wall of text". Jeg skjønner deg jo, er jo ikke gøy å bli sånn avkledd...

 

Men av nysgjerrighet, med et 2080Ti og en 4K TV som nevnt, hvor mye synes du vi skal øke oppløsningen med i f.eks. Monster Hunter:rofl:

 

Og sannsynligvis overklokker ikke R7? Hvilket hulrom halte du den ut av? Ikke at det har noen betydning selv om du skulle gjette rett, så lenge du ikke evner å forstå hvordan adaptive sync funker...

  • Liker 2
Lenke til kommentar

Nå som Nvidia også støtter Freesync, så ser jeg absolutt ingen grunn til å gå for Radeon 7. Det eneste må jo være visst man virkelig har behov for 16GB minne.

 

 

Tja, eller tror at man kan få bruk for 16GB minne i løpet av eier tiden, eller driver med "content creation", eller har bruk for double precision, der den slår Titan V i ytelse per krone med ganske kraftig margin.

 

Nå, Radeon 7 er åpenbart ikke et kort for alle. Det er ikke et kort for en gang. :p Men for de som kortet er for, så er det et jævlig bra kort. Som de til og med kan spille på, med tilnærmet RTX 2080 ytelse, for samme pris! ;)

  • Liker 1
Lenke til kommentar
Men av nysgjerrighet, med et 2080Ti og en 4K TV som nevnt, hvor mye synes du vi skal øke oppløsningen med i f.eks. Monster Hunter:rofl:

 

Og sannsynligvis overklokker ikke R7? Hvilket hulrom halte du den ut av? Ikke at det har noen betydning selv om du skulle gjette rett, så lenge du ikke evner å forstå hvordan adaptive sync funker...

Hjelper da fint lite at RTX 2080 Ti bare klarer 4K30 i Monster Hunter World uten å redusere innstillinger når Radeon VII sliter nede rundt 20-25 fps.

 

Ja, du kan redusere innstillinger i spillet (spesifikt sette image quality til prioritize framerate og redusere volume render quality), men jeg tviler sterkt på at det vil heve spillet til spillbar ytelse.

  • Liker 2
Lenke til kommentar

Angående FE-klokkefrekvenser, hvor mange kort har du sett testet der ytelsen er betraktelig verre enn FE? Hvor mye slår FE-overklokken ut på ytelse i praksis?

Jeg har til gode å se en test av FE direkte mot f.eks. EVGA's Black kort. Men jeg finner det uansett ikke spesielt interessant. Vi vet jo at FE er overklokket (utenom 2060?), og det finnes nok av andre modeller som også er det. Det jeg har gjort er å teste 3stk. RTX2070 kort selv. Ingen av dem FE. Selvsagt ikke store sample size'en, men resultatene var i tråd med hva review'erne som har giddet å teste også kom frem til. At de binnede "A" chip'ene ikke er mye bedre enn de uten. Så jeg fikk mine non-A, non-OC 2070 kort opp ca. 11-12%, som gjorde dem en prosent eller 2 raskere enn "A" kortet på stock (et MSI Gaming Z), mens "A" kortet som var fabrikk overklokket knapt økte ytelsen overhodet ved max OC, til tross for at det fikk trekke vesentlig mere strøm. Om jeg ikke husker feil havnet det kun rundt 17-18% over non-A kortenes baseline. Skjønt det kan ha vært en prosent eller 2 lavere også. Pauls Hardware er en av de som testet, og han fikk ikke sitt non-A kort helt opp til samme ytelse som det binnede. Mener det var MSI Armor opp til nesten samme ytelse som MSI's Gaming Z. Samme kort som jeg testet altså, pluss jeg hadde også et Gigabyte Windforce.

 

Det jeg har gjort når jeg har snakket om RTX FE kortenes fordel over tidligere FE kort, er å gi dem en ca. verdi der jeg har trukket fra litt av ytelsen på grunn av dårligere kjøler enn kort med tredjeparts kjøler. Mener jeg som regel har estimert FE's ytelse til ~6-8% over hva det "skulle" ha vært...

 

Techreport var de første til å teste tid per bilde (2011), da for å undersøke hvorfor Crossfire og SLI var uspillbart i mange tilfeller. De plasserte også Vega 64 godt bak GTX 1080.

 

Det var som vanlig en tilfeldighet som gjorde at jeg bet meg merke i noen ytelses tall for V64. Mener det var min vanlige go to reviewer; HWUB/Techspot. Som sagt var det bare et eksempel fordi jeg husket det, siden jeg sjekket det den gang. Jeg gadd imidlertid ikke dele mine funn på dette forumet den gang. Og du kan jo gjette hvorfor. ;)

 

Det jeg kom frem til var at V64 faktisk hadde nesten like mange titler der de vant med en "vesentlig" margin på 1% low frametimes. Tror jeg så bort fra alt under 5% forskjell. Og i de resterende ble det altså seier til V64 i en tittel mindre enn GTX1080... Om jeg husker riktig...

 

Jeg har ymtet frempå med at vi nok trenger en ny måte å presentere ytelse på. Da jeg mener at det gir veldig lite mening å snakke om at et kort vant fordi det er f.eks. 4% raskere i gjennomsnitt, når det samtidig kan bety så mye som 20 - 30% bedre eller dårligere ytelse avhengig av tittel.

 

Men nå har jo en haug av genier her på forumet stemplet meg som fanboy, så det er begrenset med hva jeg kan slå gjennom med. Du vet, en rettferdig vurdering er ofte provoserende for Nvidia fanboys...

 

Når det er sagt, kan du være like kritisk til AdoredTV når han bommer med sine spådommer?

Jeg vet ikke om du blander meg med noen andre igjen, jeg har da allerede tatt god avstand fra Jim's siste spådommer. Jeg tror riktignok ikke han nødvendigvis kommer til å bomme med mye. Men når han "forutså" prisen på RTX 2070, så stod det vel 300 - 500 USD i excel arket hans om jeg ikke husker feil. Og vel, det gjør jo det hele ganske mye mindre imponerende.

 

Når det er sagt synes jeg han lager interessante videoer likevel. Jeg bare kjøper ikke alt han selger. I motsetning til enkelte her, så liker jeg å tenke litt selv også. ;) (Ikke myntet på deg, bare så jeg er klar på det i det minste.)

 

Edit:

 

Hjelper da fint lite at RTX 2080 Ti bare klarer 4K30 i Monster Hunter World uten å redusere innstillinger når Radeon VII sliter nede rundt 20-25 fps.

 

Neida, poenget var imidlertid kun at selv ikke 2080Ti klarer alt i over 60fps i 4K. Hverken mer eller mindre... Jeg kunne jo tatt Ghost Recon Wildlands i stedet. Men noe sier meg at "geniet" ikke hadde tatt poenget da heller.

Endret av Gabri3L
  • Liker 2
Lenke til kommentar

Føler meg ikke særlig naken ;)

Men det er jo standard fra din side å komme med "wall of text" med bare svada

Du skjønner visst ikke så mye av noenting du? Om det var svada, så burde det jo være enkelt for deg å motbevise. Så flink du er som ikke klarer motbevise svada en gang...

 

Når det kommer til Monster Hunter så havner vega fort under free-sync vinduet i 4k ;)

Hæ?!?! Jammen, er det ikke bare å kjøre res scale? Ånei, det var bare for 2080Ti det gjaldt. Du glemte visst å svare i farta forresten. Hvor mye OPP skal vi sette oppløsningen for 2080Ti? Eller evner du å innrømme at selv ikke 2080Ti klarer alt av 4K@60?

 

Skal ikke du komme med noe piss ang DLSS of FF demoen snart?

Trenger jo ikke det når du gjør det for meg...

  • Liker 1
Lenke til kommentar

Ikke verst! Synes det er dumt at AMD nok en gang kjører i samme fella og presser så mye ytelse de kan ut av kortet med resulterende marginale ytelsesøkninger og langt høyere strømforbruk og mer støy. Om kortet hadde ytt 2% dårligere, bruk 50W mindre strøm og støya 5dB mindre hadde det vært langt mer interessant for meg. Har sittet å tweaka 1070 til den bærbare de siste ukene og Nvidia er mye bedre på å styre voltkurver etc. Ved 800mv kjører 1070 fint på 1750MHz (reelt yter det ikke som 1750 på då lav mv), strømforbruket er dog bare 20% lavere, ytelsa 10% lavere. På RX 580 derimot er strømforbruket ned 55%, undervolta fra 1170mv til 870mv og underklokka fra 1411 til 1185MHz, ytelsa er bare 10% lavere enn stock. Binningprosessen til AMD er ikke bra, her bør de lære en god del av de grønne.

Har du noen gode tips til fremgangsmåte på undervolt? Jeg har selv RX570, og så snart jeg starter et spill er temperaturen på 80-90°C og vifta går på 3000 rpm. Er det bare å justere ned volt til maskinen krasjer, og så droppe klokk til den igjen er stabil? Bør jeg klusse med de andre innstillingene i Wattman, Power Limit og sånt?

Endret av Zlatzman
Lenke til kommentar

Ser ut som et røverkjøp for de som trenger FP64 (bedrifter?).Men til gaming så blir det vel smak og behag hva mann kjøper av 2080 vs Radeon 7. De er så og si lik i ytelse, alt etter hvilket spill mann tester. I noen nyere titler(DX12) så ser det ut som Radeon 7 liker seg best der.  Men skulle kanskje kosta litt mindre for å konkurrere litt bedre. Men pga. HBM minne som alene koster 300$ så ser eg helt klart hvorfor den koster som den gjør. Siden ikke AMD kommer med noe nytt før i Oktober på GPU fronten så såg de vel seg nødt til å gi ut noe. Så er vel derfor Radeon 7 bare plutslig kom ut av det blå. 

oxcQoWh.png

Endret av -=HellBound=-
  • Liker 3
Lenke til kommentar

Har du noen gode tips til fremgangsmåte på undervolt? Jeg har selv RX570, og så snart jeg starter et spill er temperaturen på 80-90°C og vifta går på 3000 rpm. Er det bare å justere ned volt til maskinen krasjer, og så droppe klokk til den igjen er stabil? Bør jeg klusse med de andre innstillingene i Wattman, Power Limit og sånt?

bruk wattman :) sett de 3 siste powerstatene på 1050 og se om det funker. Du kan evt underklokke litt og undervolte enda mer.
Lenke til kommentar

Har du noen gode tips til fremgangsmåte på undervolt? Jeg har selv RX570, og så snart jeg starter et spill er temperaturen på 80-90°C og vifta går på 3000 rpm. Er det bare å justere ned volt til maskinen krasjer, og så droppe klokk til den igjen er stabil? Bør jeg klusse med de andre innstillingene i Wattman, Power Limit og sånt?

Dette kan også være tegn på dårlig kontakt mellom kjøler og gpu. Om den har 2 vifter burde den ha en C rundt 70 grader.

 

Om det er et nytt kort må du sjekke det grundig, er det eldre så kan rengjøring være det du trenger.

Lenke til kommentar

Jeg håper virkelig AMD greier å finne noe bedre opplegg mtp strømstyring etc på Navi. Målt forbruk nå med energimåler i veggen med det undervolta 1070-kortet mitt i den bærbare. Reduserer jeg volt slik at ytelsa synker med 10% så synker forbruket bare marginalt mer enn 10% på så vidt stabil kurve. Rapportert klokkehastighet og reel ytelse samsvarer heller ikke. Stock kjører kortet under langtidslast på mellom 1500 og 1600MHz, mens UV ligger stabilt på 1750MHz og 800mv. Hos AMD og Intel er samsvaret perfekt og de kjører på med binning hvor alt av CPUer hos Intel og GPUer hos AMD kjører på alt fra litt til langt over, Nvidia har virkelig fått til dette, det skal de ha. Å legge seg så nærme grensa til stabilitet med tanke på lavest mulig forbruk har de virkelig fått til med pascal, hvordan turing er vet jeg ikke da jeg ikke har fått testa ennå, men sikkert noe i samme gata. Ryzen er vell hakket bedre og har smartere overvåkning av dette.

 

Med perfekt undervolting og ideel ytelse vs forbruk så får jeg 90% av ytelsa fra RX 580 på ca 50% av strømtrekket. Med 1070 i den bærbare får jeg 90% av ytelsa på 88% av strømtrekket. Ytelse pr watt er faktisk bare 20% i favør av Nvidia etter tweaking med et da mye dyrere skjermkort. Jeg er meget imponert over Nvidia her, hadde AMD fått til dette hadde de nok uten problemet kunne hatt massevis av RX 470 og 480 i bærbare i 2016 da Nvidia virkelig spiste seg inn i markedet hvis de hadde fått med OEMs etc på det da ;)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...