Gå til innhold

AMD Polaris & Vega og midlertidig (?) Navi


ExcaliBuR
Gjest

 

Anbefalte innlegg

Videoannonse
Annonse

 

 

 

Husker mange satt og skrev at 4GB HBM var bedre enn 12GB Gddr5

 

Mange? Har enda ikke sett at noe sa det.

 

 

Du sitter kanskje bare på diskusjon.no?

 

Har du linker så jeg/vi kan lære :)

 

 

Nei, men du er velkommen til å tråle igjenom det som er av utelandske hardwareforum i søk etter innleggene. Det gidder jeg ærlig talt ikke å ta meg tid til :p

Lenke til kommentar

 

 

 

 

Husker mange satt og skrev at 4GB HBM var bedre enn 12GB Gddr5

 

Mange? Har enda ikke sett at noe sa det.

 

 

Du sitter kanskje bare på diskusjon.no?

 

Har du linker så jeg/vi kan lære :)

 

 

Nei, men du er velkommen til å tråle igjenom det som er av utelandske hardwareforum i søk etter innleggene. Det gidder jeg ærlig talt ikke å ta meg tid til :p

 

 

Jeg ramlet av her. Hva er det dere diskuterer egentlig? Titan Xs 384bit minnebus med 7Gbps datarate brikker ga en minne-båndbredde på 336GB/s. Fury/X/Nano's HBM minne hadde en minne-båndbredde på 512GB/s. Hva er best? Det sier seg da  åpenbart selv. At Fury/X/Nano ikke hadde kraft nok til å ha nytte av så høy båndbredde er da en helt annen sak?

 

Med mere minne enn 4GB så åpner det seg muligheter for å ha større deler av spillets resurser i minnet slik at bufring reduseres. Dette kan være en fordel. Men helt opp til 4K oppløsning så er det ingen grunn til at det skal være en fordel. Fornuftig bufring skal ikke gå ut over ytelsen i noen nevneverdig grad.

 

Det "beste" er altså hverken HBM eller 12GB, men en GPU som faktisk har bruk for den båndbredden som tilbys. Nå ser vi at ikke en gang GTX1080 klarer nye spill i 4K med over 60fps på "Ultra". Og den har bare en minnebåndbredde på 320GB/s. Det ser altså ut som at HBM til tross for å være "best" enda ikke er påkrevd. Og når det en gang blir det, så er det ingen som vil ha "bare" 4GB lenger, så da må HBM2 stå klar med større kapasiteter. Og bonus er enda større båndbredde enn selv HBM tilbyr.

 

Om Vega kommer med HBM2 og likevel er tregere enn GTX1080/1080Ti/Pascal Titan, så er det ihvertfall en ting som er sikkert. Og det er at det ikke kommer til å være Vegas VRAM sin skyld..

  • Liker 1
Lenke til kommentar

Når det påstås at "Husker mange satt og skrev at 4GB HBM var bedre enn 12GB Gddr5" uten referanser og ingen her inne sa det så reagert jeg bare. Det er det som diskuteres.

 

HBM sin fordel er båndbredde som Gabri3L påpeker og det kommer ikke frem av utsagn som 6u4rdi4n kommer med. Siden han snakker om 4 Gb HBM og 12 Gb GDDR5 antok jeg at han mener at kapasiteten ikke er bra nok. Noe som stemmer på nye spill som kommer, men først i 4k. Det er uansett ikke et problem da du uansett må ha nytt grafikk kort om du skal spille i 4k på akseptabel FPS.

 

Har kun 4GB Gddr5 på 290x og har enda ikke møtt veggen (for lite minne) 1440p på akseptabel FPS.

Endret av Gralle
Lenke til kommentar

Nvidia har kommet med GTX 1080.

Intel har kommet med Intel Core i7-6950X Extreme.

 

Hva har AMD kommet med siste årene som kan konkurere?

 

Tviler på AMD blir raskere av den grunn.

Hva prøver du å si her? HBM redder ikke AMD og det er rett. Nye innovasjoner og produkter kan gjøre det. Jeg tviler også litt på at det skjer, men jeg håper det slik at vi unngår monopol tilstander. Nvidia kommer garantert til å presse prisene opp om de blir enerådende i markedet. Slik fungerer kapitalismen.

Lenke til kommentar

Men det er jo slik AMD må forte seg ellers blir AMD Zen gammel nytt.

 

Kan være cpuene blir utdaterte før de kommer i butikkhyllene.

Samme gjelder AMD Polaris og vega.

 

Kan jo bli litt som 4k filmer i dag folk gidder ikke å satse penger på dyrt\ufungerende teknolgi.

 

AMD Wraith eller noe slik er eneste kjøleren som har kommet. Men hjelper lite da få vurder det.

 

Om jeg ikke tar feil er AMD Radeon R9 Fury X det råeste skjermkortet AMD har i dag.

 

http://www.digitaltrends.com/computing/nvidia-gtx-1080-directx12/

 

 

Ashes of the Singularity benchmark leaderboard, comparing the Nvidia GeForce GTX 1080 with the Radeon R9 Fury X from AMD. Which graphics processor came out on top? Nvidia’s solution, with a score of 4,900 and an average framerate of 49.6 frames per second, compared to AMD’s score of 4,300 points and an average framerate of 44.4 frames per second. That’s a victory margin of about 13 percent.

Nå vet jeg ikke hvor merkbart dette er i spill som doom 4 eller ARK.

Men har mistanke på AMD skåret dårlig på texture, fleste skjermkort fra AMD tar lengere tid å gi optimal bilde i oppstart. Nvidia er raskere på fysiske beregninger.

Endret av LMH1
Lenke til kommentar

Hadde blitt fryktelig skuffet om ikke Pascal gruset AMD Fury X i alle spill. Er egentlig skuffet over det jeg har sett fra Pascal til nå i spill som benytter seg av Async Compute.

 

Async compute er jo så veldig populært i spill nå  :wee:

 

Utrolig mange spill som har det  :dribble:

Lenke til kommentar

 

Hadde blitt fryktelig skuffet om ikke Pascal gruset AMD Fury X i alle spill. Er egentlig skuffet over det jeg har sett fra Pascal til nå i spill som benytter seg av Async Compute.

Async compute er jo så veldig populært i spill nå :wee:

 

Utrolig mange spill som har det :dribble:

Jo da, men nå kan vi ikke spå fremtiden. Nvidia har jo sakt at de skulle fikse det og det har jo ikke skjedd selv med Pascal. Synd at Pascal ikke er bedre på det, men du må gjerne mene at det er positivt for Nvidia.

Lenke til kommentar

AMD har jo gjentatte ganger sagt at det kommer mellomklasse kort. spørs jo hva de bruker som referanse. dagens toppkort eller kommende toppkort som Vega big Pascal.

 

Må at Fury X imponerer stort i de oppdaterte reviews som er dukket opp. trodde 980 TI var fulstendig overlegent. med de yter jo likt.

  • Liker 1
Lenke til kommentar

Nizzen må jo forsvare pengene han bruker på skjermkort og da er det ikke noe rart at han synger Nvidia sangen. Beklager men jeg begynner å bli litt lei av at det stadig vekk kommer med påstander uten belegg.

 

Hadde Nvidia sine skjermkort Maxwell og Pascal virkelig dratt nytte av teknologien hadde sangen vært en annen, minner igjen på teknologien som er puttet inn i DX12 :

 

 

 

DirectX 12 Asynchronous Compute : What It Is And Why It Matters

Asynchronous Shaders/Compute or what’s otherwise known as Asynchronous Shading is one of the more exciting hardware features that DirectX12, Vulkan and Mantle before them exposed. This feature allows tasks to be submitted and processed by shader units inside GPUs ( what Nvidia calls CUDA cores and AMD dubs Stream Processors ) simultaneous and asynchronously in a multi-threaded fashion.

One would’ve thought that with multiple thousands of shader units inside modern GPUs that proper multi-threading support would have already existed in DX11. In fact one would argue that comprehensive multi-threading is crucial to maximize performance and minimize latency. But the truth is that DX11 only supports basic multi-threading methods that can’t fully take advantage of the thousands of shader units inside modern GPUs. This meant that GPUs could never reach their full potential, until now.



Read more: http://wccftech.com/async-shaders-give-amd-big-advantage-dx12-performance-oxide-games/#ixzz4AEWrfzJh

 

En annen ting er at spillet som har dette i benchmarken er fult spillbart og siste versjon viser klare forbedringer i forhold til ved utgivelse , på mange måter så er det en frisk pust for oss som har spilt slike spill før , men det har også en del problemer som jeg håper blir fikset i neste patch.

 

Battlefield 4 er også et annet spill som bruker denne teknologien , inFamous second son , The Tomorrow Children og Thief ( på forskjellige platformer ) , kommende spill som Deus Ex: Mankind divided er også en av de titlene som vil ta dette i bruk.

  • Liker 2
Lenke til kommentar

Nizzen må jo forsvare pengene han bruker på skjermkort og da er det ikke noe rart at han synger Nvidia sangen. Beklager men jeg begynner å bli litt lei av at det stadig vekk kommer med påstander uten belegg.

 

Hadde Nvidia sine skjermkort Maxwell og Pascal virkelig dratt nytte av teknologien hadde sangen vært en annen, minner igjen på teknologien som er puttet inn i DX12 :

 

Det er bare jeg er så lei av at folk tror "Async Compute" er så utrolig viktig akkurat nå, når det bare finnes ett spill det funkerer bra på. Folk tror jo at Async Compute er hele DX12 eller.no. 

Når noen nesten velger bort Pascal bare fordi Async Compute ikkje får like bra forbedreing i prosent som Fury X, sier jo litt om missoppfattelsen her. Mange har hørt og lest mye om Async, men de vet ikkje hva det er eller hva det gjør engang.

 

Nå ligger det en video i Pascaltråden, som viser at Async fungerer veldig bra. Dette var selvfølgelig nVidia sin egen demo der de skrudde det på og av for å vise ytelsesforskjellen.

 

Husk at det er ikkje nVidia eller AMD som optimaliserer for Async i spill, men spillprodusentene som må optimalisere for hvert enkelt type skjermkort/arkitektur. Så hvis de gjør en elendig jobb, ja da blir det elendig. Utviklerene av Ashes of the Singularity hadde ikkje et Pascal skjermkort tilgjengelig engang, så derfor får man ikkje noe ytelsesboost i dette spillet. Iallefall enn så lenge.

 

Husk at jeg er ikkje noe fanboy av noe spesielt skjermkortmerke, det er det du som vil at jeg skal være. Jeg er bare en performance fanboy ;)

  • Liker 2
Lenke til kommentar

Async Compute er definitivt blitt en stor hype det siste året.

Her har virkelig AMD sin PR-avdeling spilt kortene riktig, og Nvidia har sovet i timen.

 

Mange tror at Async Compute (AC) er en del av DX12, noe det ikke er. Det er kun en optimering som er muliggjort av arkitekturen til DX12. Effekten av AC vil også variere ut i fra hvordan spill-motoren er designet, GPU-arkitektur og den faktiske GPU implementasjonen av en arkitektur.

Lenke til kommentar

Async Compute er definitivt blitt en stor hype det siste året.

Her har virkelig AMD sin PR-avdeling spilt kortene riktig, og Nvidia har sovet i timen.

 

Mange tror at Async Compute (AC) er en del av DX12, noe det ikke er. Det er kun en optimering som er muliggjort av arkitekturen til DX12. Effekten av AC vil også variere ut i fra hvordan spill-motoren er designet, GPU-arkitektur og den faktiske GPU implementasjonen av en arkitektur.

 

Kommer nå godt fram i programmeringsguiden til Microsoft : Synchronization and Multi-Engine :

 

 

Asynchronous compute and graphics example

This next example allows graphics to render asynchronously from the compute queue. There is still a fixed amount of buffered data between the two stages, however now graphics work proceeds independently and uses the most up-to-date result of the compute stage as known on the CPU when the graphics work is queued. This would be useful if the graphics work was being updated by another source, for example user input. There must be multiple command lists to allow theComputeGraphicsLatency frames of graphics work to be in flight at a time, and the function UpdateGraphicsCommandList represents updating the command list to include the most recent input data and read from the compute data from the appropriate buffer.

The compute queue must still wait for the graphics queue to finish with the pipe buffers, but a third fence (pGraphicsComputeFence) is introduced so that the progress of graphics reading compute work versus graphics progress in general can be tracked. This reflects the fact that now consecutive graphics frames could read from the same compute result or could skip a compute result. A more efficient but slightly more complicated design would use just the single graphics fence and store a mapping to the compute frames used by each graphics frame.

 

Dette under hvordan man implementerer funksjoner i DirectX 12. Så da kan man spørre seg om hva som kom først, høna eller egget?

Poenget er at uten støtte for denne typen i DX12 så hadde ikke AC eller andre lignenede former for bruk av shaders vært mulig. Uten Shader units hadde heller ikke denne formen vært mulig. At det forskjell på hvordan Nvidia og Amd implementerer det er en annen sak og hvem som kommer best ut av dette vil jo variere.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...