Gå til innhold

AMD Polaris & Vega og midlertidig (?) Navi


ExcaliBuR
Gjest

 

Anbefalte innlegg

Videoannonse
Annonse

Sukk...

 

Nok en DX12 add-on som ikke gir noe ekstra effekter eller kvalitet. Denne gangen er det vel AMD som har jobbet "tett sammen med" utviklerne for å lage denne patchen.

 

Det som derimot er morsomt er å se hva som skjer når man lager benchmark "in-game", isteden for "innebygd benchmark" (det vil si at man tester reel spilling isteden for en oppkonstruert test).

 

http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/

Lenke til kommentar

Sukk...

 

Nok en DX12 add-on som ikke gir noe ekstra effekter eller kvalitet. Denne gangen er det vel AMD som har jobbet "tett sammen med" utviklerne for å lage denne patchen.

 

Det som derimot er morsomt er å se hva som skjer når man lager benchmark "in-game", isteden for "innebygd benchmark" (det vil si at man tester reel spilling isteden for en oppkonstruert test).

 

http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/

 

Nå må vi vel huske at mange av forbedringene i DX12 går på ytelse , da må du nesten forklare meg hva som er så galt med å faktisk utnytte den biten.

Og ja, godt mulig at "Team Amd" har kjørt på med fult sammarbeid på samme måte som utviklerne av Witcher 3 kjørte på med full Nvidia sammarbeid , og det blir vel ikke noe nytt , men det forklarer fortsatt ikke det totale DX12 perspektivet som nå begynner å forme seg.

 

Nvidia trenger ny arkitetkur for å kunne utnytte forbedringene i DX12 om de ønsker å fortsatt være på topp i fremtiden også. Så får vi se hva neste runde med skjermkort fra Nvidia har å by på og hva Vega kommer med , spennende blir det i alle fall og slik jeg ser det håper jeg at forbrukerne blir vinnerne med skjermkort som tilbyr utrolig bra ytelse til en fin pris.

  • Liker 2
Lenke til kommentar

Nå må vi vel huske at mange av forbedringene i DX12 går på ytelse , da må du nesten forklare meg hva som er så galt med å faktisk utnytte den biten.

Når "in-game" tester, ikke innebygd benchmark er dårlige for begge produsenter så stiller jeg meg spørsmål om man ikke burde gått et par runder til før man slapp en patche.

 

Og ja, godt mulig at "Team Amd" har kjørt på med fult sammarbeid på samme måte som utviklerne av Witcher 3 kjørte på med full Nvidia sammarbeid , og det blir vel ikke noe nytt , men det forklarer fortsatt ikke det totale DX12 perspektivet som nå begynner å forme seg.

Det er ikke noe nytt nei, og det kommer til å bli mer av det i fremtiden.

 

Nvidia trenger ny arkitetkur for å kunne utnytte forbedringene i DX12 om de ønsker å fortsatt være på topp i fremtiden også. Så får vi se hva neste runde med skjermkort fra Nvidia har å by på og hva Vega kommer med , spennende blir det i alle fall og slik jeg ser det håper jeg at forbrukerne blir vinnerne med skjermkort som tilbyr utrolig bra ytelse til en fin pris.

Nei, Nvidia son arkitektur fungerer helt bra til DX12. Det dette handler om er hvordan en spillutvikler bruker arkitekturen. Bare å se på RoTR som er et Nvidia-sponsa spill med DX12-modus, der gjør ikke AMD det veldig bra i DX12.
Lenke til kommentar

 

Nå må vi vel huske at mange av forbedringene i DX12 går på ytelse , da må du nesten forklare meg hva som er så galt med å faktisk utnytte den biten.

Når "in-game" tester, ikke innebygd benchmark er dårlige for begge produsenter så stiller jeg meg spørsmål om man ikke burde gått et par runder til før man slapp en patche.

 

Og ja, godt mulig at "Team Amd" har kjørt på med fult sammarbeid på samme måte som utviklerne av Witcher 3 kjørte på med full Nvidia sammarbeid , og det blir vel ikke noe nytt , men det forklarer fortsatt ikke det totale DX12 perspektivet som nå begynner å forme seg.

Det er ikke noe nytt nei, og det kommer til å bli mer av det i fremtiden.

 

Nvidia trenger ny arkitetkur for å kunne utnytte forbedringene i DX12 om de ønsker å fortsatt være på topp i fremtiden også. Så får vi se hva neste runde med skjermkort fra Nvidia har å by på og hva Vega kommer med , spennende blir det i alle fall og slik jeg ser det håper jeg at forbrukerne blir vinnerne med skjermkort som tilbyr utrolig bra ytelse til en fin pris.

Nei, Nvidia son arkitektur fungerer helt bra til DX12. Det dette handler om er hvordan en spillutvikler bruker arkitekturen. Bare å se på RoTR som er et Nvidia-sponsa spill med DX12-modus, der gjør ikke AMD det veldig bra i DX12.

 

 

Og dette er jo ikke akkurat et gyldig bevis på at arkitekturen til Nvidia faktisk er bra i Dx12 , men mer at det er fult mulig å optimalisere for et konkret skjermkort. Vi må vel også gjøre litt forskjell på 9xx serien og 1xxx serien til Nvidia da det er først sistenevnte som virkelig har et par forbedringer som tar seg vel ut i DX12 , min erfaring med 980 kortet er at det yter ganske så bra ( når man først har funnet en grei driver ) i DX12 , men det ser ut som det får langt mindre boost av spillpatcher og driveroppdateringer enn det 1xxx serien får ( i DX12 vel og merke).

 

Jeg tror personlig at det er mye som kan forbedres i arkitekturen til Nvidia og at dette kan gi bedre ytelse , akkurat nå er vel den enkleste forklaringen at Nvidia har et par med kjappe sportsbiler som kjører en rute ekstremt fort og kan ta turen et par ganger, mens Amd har langt flere biler som har lavere hastighet men som greier å få fraktet flere passasjerer.

 

Tomb Raider har bare for å nevne det fått en god del ytelseforbedringer på Amd kortene over tid med driveroppdateringer , hvor mye mer ytelse dette er må jeg innrømme at jeg ikke har en god oversikt for , men jeg mener at den er markant for de som har noe nyere skjermkort (3xx og 4xx ).

 

Det største problemet per dags dato , slik jeg ser det , er at det ikke er helt tydelig om DX12 favoriserer en type arkitektur eller om det er snakk om at spillene som har fått "hjelp" av Nvidia / AMD har fått kunstige fordeler eller om de kun er bedre til å utnytte fordelene eksempelvis 1xxx serien har.

Er koden skrevet sånn at man har 1 vanlig sti som kjøres om kortet ikke støtter noen forbedringer som eksempelvis Amd sine kort har ser jeg ikke et stort problem med det , men er det sånn at programvaren er skrevet sånn at man er nødt til å benytte seg av samme kode som Amd kortene bruker for å utføre en oppgave og dette medfører problemer for Nvidia kortene ( eller viseversa ) så er det jo selvsagt ikke greit.

 

Min erfaring er dessverre sånn at jeg ikke stoler 100% på hverken Amd eller Nvidia da de begge to er villige til å slå et par slag under beltet , Nvidia ser derimot ut til å være verstingen pga markedsposisjon og makt , men Amd er på ingen måte "snille " de heller da de også er kjent for å ha gjort sine uting...

  • Liker 2
Lenke til kommentar
DX12 er mer fordelaktig for AMD, dem har mer å hente der, men som nevnt tidligere betyr det ikke nødvendigvis at Nvidia har en dårlig arkitektur for DX12. Forklaringene kan heller ligge i f.eks ALU forholdet til øvrige eksekverings enheter i AMD GPU'er gjør at shader ALU'ene står en del på tomgang, dødtid som kan utnyttes av async compute i DX12.
 
Fra et innlegg på Beyond3D forumet:
sometimes even when you have all these choices about what shader types to run on the ALUs, there's not enough work to keep all of the ALUs busy. For example, you can't have 2 pixel shaders running at the same time, because a draw call requires at most one of each type of shader (hull, domain, vertex, geometry, pixel). The best you can get is that as one draw call completes, the next draw call starts, so for a brief time there could be an overlap (it's unclear if any GPUs can overlap like this).
 
Asynchronous compute isn't constrained by the draw call definition of what shaders to execute. It's completely independent and can be scheduled in such a way as to be unconstrained in its timing with regard to whatever draw calls get issued. You can issue dozens of different compute kernels if you want during the lifetime of a single draw call. The kernels can overlap with each other, too. You can fill the ALUs with kernels. You might not want to fill the ALUs exclusively with kernels, though, because the traditional graphics pipeline needs at least a smidgen of ALU.
 
Shadow buffer fill and geometry buffer fill are two kinds of graphics draw call that leave most ALUs idle. The geometry throughput in these passes isn't generally high enough to require that all ALUs commit fully to running HS, DS, VS, GS code (PS is usually very simple and short).
 
GCN has been substantially more limited in its geometry throughput when compared with competing NVidia cards, so during these passes (which most games with high-end graphics have) the proportion of frame time for these passes is much greater than on NVidia. Having, generally, more FLOPS than the competing NVidia cards, this has been a double-hurt for GCN: longer time spent with more ALU capability sat idle. So when these passes are accompanied by compute kernels, the difference with asynchronous compute on AMD can be quite large.
 
The difference on NVidia would tend to be smaller, because these passes tend to last for less time. Maxwell and earlier cards had no meaningful way to apply concurrency of compute and graphics, using asynchronous compute. Apparently it would always lead to less performance, because the optimal proportion of ALUs that would be running compute was a problem that NVidia would have to solve in its driver, since only the driver could divide ALUs between graphics and compute.
 
So on the older NVidia cards it's simpler to just put the compute kernels into the same draw call(s), where in theory they can still run in parallel with graphics, but they are now constrained by the draw call boundaries (start and end time of the draw call). My understanding is that only a single compute kernel can be issued per draw call, so you'd better hope that it runs for about as long as the graphics shaders. If it runs for longer, then you're doing no graphics pipeline stuff. If it runs for shorter, then you're still leaving ALUs idle.
 
Which is why asynchronous compute was invented, so that draw call boundaries aren't relevant to the start and end times of compute kernels.

 

 

 

  • Liker 1
Lenke til kommentar

 

Nvidia trenger ny arkitetkur for å kunne utnytte forbedringene i DX12 om de ønsker å fortsatt være på topp i fremtiden også. Så får vi se hva neste runde med skjermkort fra Nvidia har å by på og hva Vega kommer med , spennende blir det i alle fall og slik jeg ser det håper jeg at forbrukerne blir vinnerne med skjermkort som tilbyr utrolig bra ytelse til en fin pris.

Nei, Nvidia son arkitektur fungerer helt bra til DX12. Det dette handler om er hvordan en spillutvikler bruker arkitekturen. Bare å se på RoTR som er et Nvidia-sponsa spill med DX12-modus, der gjør ikke AMD det veldig bra i DX12.

 

Både AMD og Nvidia fikk dårligere ytelse i RoTR når DX12 ble aktivert :p RoTR er det dårligste spillet i DX12 så langt! RoTR kan man ikke sammenligne DX12 ytelsen, da den er så dårlig kodet!

Lenke til kommentar

Kan noen vise meg bilde forskjell på DX11 og 12 på ja, på de få spill som er kommet ut?

 

Oh shit, er jo ikke noe forskjell, skjønner ikke the big deal med DX12 enda idag, kanskje ser vi noe når spill blir bygget opp i DX12.

 

Deus Ex er bare dårlig konsoll port, hvorfor skulle Fury X tape mot GTX1060. hvilke som helst idiot klarer å se dette rævva spillet er helt ute å kjører.  :nei:

 

original.jpg

Endret av nagina
Lenke til kommentar

Kan noen vise meg bilde forskjell på DX11 og 12 på ja, på de få spill som er kommet ut?

 

Oh shit, er jo ikke noe forskjell, skjønner ikke the big deal med DX12 enda idag, kanskje ser vi noe når spill blir bygget opp i DX12.

 

Deus Ex er bare dårlig konsoll port, hvorfor skulle Fury X tape mot GTX1060. hvilke som helst idiot klarer å se dette rævva spillet er helt ute å kjører.  :nei:

 

original.jpg

 

Fint om du også legger ut link til selve testen.

Nå varierer stort sett ytelsen stort på DX12 ytelsen , men man ser jo at i noen tilfeller så er jo RX 480 ganske så nærme 1070 og 1080 mens i andre tilfeller er avstanden enorm. Fury X er noe for seg selv , med de begrensningene kortet har pga 4 Gb HBM minne er det vanskelig å si om det er en bottleneck eller om selve hastigheten på minnet utgjør en stor forskjell , men mye tyder på at det ikke er ment å kjøre over 1920x1080.

 

Og joda , trolig mye rart i forskjellige benchmarks, men jeg er personlig så sabla lei av alt oppgulpet som har kommet på at DX12 ikke er noe å lytte på , at Nvidia snart ( dette var ved lansering av 9xx gen ) skulle få langt bedre kort som hadde langt bedre ytelse i DX12 , og nå som vi endelig har 1070 så ser man jo at det ikke er en enorm forskjell og at i mange tilfeller så faller jo ytelsen ved bruk av DX12.

 

Så da kan man spørre seg om det er snakk om utviklere med null peilig på programmering eller om det er andre faktorer som gjør at både Amd / Nvidia sine kort yter i stor grad forskjellig når DX12 kjøres og kan risikere å miste litt ytelse av en eller annen grunn....

  • Liker 1
Lenke til kommentar

Som det ble forklart kan AMD få en betydelig boost med async compute. En annen scenario der DX12 kan hjelpe markant idag er hvis man har en svak CPU og en middels til kraftig GPU, ellers er det ganske begrenset hva man kan få ut av DX12 når det blir boltet på spillene som en ettertanke. Her kan DX12 renderen godt gi dårligere ytelse enn DX11 hvis DX12 renderen ikke gir noe fordel på en gitt hardware konfigurasjon og samtidig er dårligere optimalisert enn DX11 renderen.

DX12 vil derimot få en stor effekt når spill utviklerne kutter ut DX11 helt og f.eks benytter seg av en stor mengde draw calls (i den størrelsesorden som ville ha drept ytelsen med DX11). Men når den tid kommer vil vi jo ikke ha en DX11 renderer i spillene å sammenligne med.

Endret av MistaPi
  • Liker 1
Lenke til kommentar

https://www.computerbase.de/2016-09/deus-ex-mankind-divided-dx12-benchmark/

 

google translate hele siden om du ikke kan språket :)

 

Ikke console port? vel, i så fall veldig dårlig PC versjon av merkelig årsak, AMD?

Noe muffins er det her, det er det ikke noe tvil om.

 

Tror ikke du skal skylde for mye på Amd...

"– There is a known bug that causes some very high end cards to regress relative to DirectX 11. This bug is being addressed by the development team.

Read more: http://wccftech.com/nvidia-amd-deus-mankind-divided-dx12-benchmarks-performs-poorly-geforce/#ixzz4Jms5DToL"

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...