Gå til innhold

AMD Radeon R300-serien/fiji diskusjon og spekulasjon


Anbefalte innlegg

Videoannonse
Annonse

 

Det kommer ikke som en overraskelse at du er ekstremt negativ og ikke minst kvass i forhold til ytelsen til Amd

1 Nå er det på tide at du gir deg med det våset ditt! Alt jeg kommer med her er rene og harde fakta.

 

Om vi snur på det kan vi jo spørre oss hvorfor Nvidia ikke greier å yte bedre enn Amd i denne testen da de både har bedre hardware og drivere rent historisk?

2 Det blir bare ville spekulasjoner.

 

 

 

1 : Hadde du holdt deg til en enkelt tråd med de "harde" faktaene dine hadde jeg trolig ikke reagert , men slik jeg ser det bruker du enhver mulighet du har til å kommentere negativt og ikke minst kvast AMD. Nå er dette min subjektive oppfatning av deg og jeg lover faktisk at jeg ikke kommer til å påpeke dette flere ganger selv om jeg personlig oppfatter denne type for kvasse og negative meninger som ødeleggende for en god diskusjon.

 

2 : Er det spekulasjoner eller er det gjort endringer i Opengl nå i det siste som gjør at Nvidia kortene ikke greier å gi den samme ytelsen som Amd kan. Siden du tydeligvis har god erfaring i nettopp Opengl hadde det jo vært fint om du hadde påpekt årsaken eller om det rett og slett er trolig dårlig koding eller optimalisering mot Amd som foregår her.

  • Liker 2
Lenke til kommentar

 

Det kommer ikke som en overraskelse at du er ekstremt negativ og ikke minst kvass i forhold til ytelsen til Amd

Nå er det på tide at du gir deg med det våset ditt! Alt jeg kommer med her er rene og harde fakta.

 

Om vi snur på det kan vi jo spørre oss hvorfor Nvidia ikke greier å yte bedre enn Amd i denne testen da de både har bedre hardware og drivere rent historisk?

Det blir bare ville spekulasjoner.

 

 

Men, slik som Malvado skriver, så er det "rart" at AMDs 290 er på høyde med 980, men som det skrives også, det kan være pga. async. shading. muligens.

Nei, Doom bruker OpenGL som ikke støtter async shading ennå.

 

Ja, det er uheldig med optimalisering mot kun en arkitektur, men igjen så er det artig å se hvordan kortene yter uten optimaliseringer.

Som jeg har nevnt før, hvis utviklere jobber daglig på kun én produsent og tester på de andre en gang i blant så vil de gjerne ende opp med å gjøre designvalg som favoriserer den ene (uten at det trenger å være bevisst). Dette kan lett utgjøre 15-20% ytelse.

 

Doom DX12 viser sammen trenden som tidligere DX12 tester. Kun pascal som kan redde nvidia ang. DX12 og Vulkan! AMD gjør det mye bedre enn nvidia uten optimalisering...

Det er et glimdrende blinkskudd å bruke en OpenGL-benchmark for å vise at Direct3D 12 yter bedre på AMD-maskinvare!?!?!?

 

 

Tok bare utgangspunkt i wikis iD Tech 6 side: https://en.wikipedia.org/wiki/Id_Tech_6

 

id Tech 6 is an upcoming OpenGL/Vulkan based game engine under preliminary development by id Software

 

 

Vi snakker om to forskjellige ting. At du har nevnt optimaliseringer osv. før betyr ikke at  jeg forandrer min mening at det er imponerende at eldre AMD HW yter godt i nyere tittel/motor uten optimaliseringer i nevnte motor (evt. driver). Om nVidia tar igjen dette så ser vi da at den arkitekturen trenger mer optimaliseringer i kode for å kjøre bra/like bra?

Endret av ExcaliBuR
Lenke til kommentar

Nå er det vulkan og DX12 som gjelder! AMD gjør det meget bra der sammenlignet med nvidia! Doom DX12 viser sammen trenden som tidligere DX12 tester. Kun pascal som kan redde nvidia ang. DX12 og Vulkan! AMD gjør det mye bedre enn nvidia uten optimalisering...

Vulkan og DX12 blir ikke virkelig relevant før om to-tre år tidligst, og innen den tid vil både 390X og Fury X være utdaterte kort ytelsesmessig.

 

 

AMDs/ATis linuxdrivere har vært viden kjent å være elendige.

AMD er kjent for å ha elendig OpenGL-ytelse (uansett plattform) og dårlige Linux-drivere. OpenGL-ytelsen på tvers av plattformene er omtrent i samme klasse.

Jeg mener bestemt å huske at Nvidia sin implementering av OpenGL generelt sett anser spesifikasjonen som en retningslinje der GPUene ender opp med å gjøre noe som er nært nok til å anses som akseptabelt, og raskt. Som dermed har ført til at "NvidiaGL" er et uttrykk. Til sammenligning skal visstnok AMDs implementering være mer etter spesifikasjonen, men også tregere i prinsippet.

 

Men det kan også hende dette er gammel/feil informasjon.

Lenke til kommentar

Trenden er den samme når det gjelder DX12 og vulkan! AMD banker nvidia i vulkan.

Eeeh, nei!

 

Mantle, DX12 og vulkan er veldig like...

Eeeh, nei!

 

AMD har sin store fordel der!

Som ingen har sett manifestere seg så langt!

 

Hadde du holdt deg til en enkelt tråd med de "harde" faktaene dine hadde jeg trolig ikke reagert , men slik jeg ser det bruker du enhver mulighet du har til å kommentere negativt og ikke minst kvast AMD.

Spar oss for de løgnene dine!

Hver gang jeg kommer med fakta så svarer du mer personangrep. Det er usaklig oppførsel som ikke sømmer seg.

 

Nå er dette min subjektive oppfatning av deg og jeg lover faktisk at jeg ikke kommer til å påpeke dette flere ganger selv om jeg personlig oppfatter denne type for kvasse og negative meninger som ødeleggende for en god diskusjon.

Du og et par andre her har stått for systematisk sabotasje av saklig diskusjon ved at dere angriper enhver som påpeker faktum som ikke setter AMD i det lyset dere ønsker. Skal vi ha en god diskusjon så får dere lære dere å kontrollere følelsene deres i møte med fakta. Det er helt bak mål at jeg skal angripes for å bidra til en saklig diskusjon.

 

Er det spekulasjoner eller er det gjort endringer i Opengl nå i det siste som gjør at Nvidia kortene ikke greier å gi den samme ytelsen som Amd kan.

Der er ingen store underliggende endringer i OpenGL de siste årene. De støste endringene er utvidelser som bindless graphics, sparse textures, bedre occlusion, command list og conservative raster. Alt dette bygger videre på 4.x, og ingenting skulle tilsi at den ene skulle slite mer enn før.

 

Siden du tydeligvis har god erfaring i nettopp Opengl hadde det jo vært fint om du hadde påpekt årsaken eller om det rett og slett er trolig dårlig koding eller optimalisering mot Amd som foregår her.

På Tesla og Fermi så var det ikke et veldig stort ytelsegap mellom AMD og Nvidia (selv om AMD hang etter på spesifikasjonsfronten). I utdaterte OpenGL 2.x har AMD nesten hengt med, men "ingen" lager noe nytt i det. Men med Kepler så gjorde Nvidia et betydelig hopp i ytelse i OpenGL 4.x som AMD ennå ikke har svart på. Til mer komplisert lasten er til større er forskjellen, noen ganger 30-40%, noen ganger mindre og andre ganger betydelig mer. Jeg tror absolutt at AMD kunne hentet ut mye av det samme bare de hadde prioritert det. Dessverre har aldri OpenGL vært en prioritering fra AMD, noe som er virkelig synd siden det har hindret utbredelse. Mitt største håp for Vulkan er at AMD skal ta det seriøst slik at spillselskaper faktisk kan bruke det. Jeg tror du forstår det også om du tenker deg om, at når situasjonen for utviklere er at OpenGL medfører dårlig ytelse for ~30+% av kundene men øker markedet med ~5% (inkl. XP), så forblir Direct3D det naturlige valget. Jeg klandrer ikke spillutviklerne for det valget, men de to driverprodusentene som ikke får ut fingeren.

  • Liker 2
Lenke til kommentar

Vulkan og DX12 blir ikke virkelig relevant før om to-tre år tidligst, og innen den tid vil både 390X og Fury X være utdaterte kort ytelsesmessig.

Riktig.

 

Jeg mener bestemt å huske at Nvidia sin implementering av OpenGL generelt sett anser spesifikasjonen som en retningslinje der GPUene ender opp med å gjøre noe som er nært nok til å anses som akseptabelt, og raskt. Som dermed har ført til at "NvidiaGL" er et uttrykk. Til sammenligning skal visstnok AMDs implementering være mer etter spesifikasjonen, men også tregere i prinsippet.

 

Men det kan også hende dette er gammel/feil informasjon.

Du er inne på noe som ofte er misforstått. Der er noen aspekter av shadere som Nvidia ikke er like strenge som spesifikasjonen, noe de har valgt siden shader-kompilatoren til GLSL er den samme som HLSL for Nvidia, som er Cg-kompilatoren. Derfor kan du altså i noen tilfeller kompilere feil OpenGL-syntaks og utviklere som ikke er oppmerksom på dette kan gjøre tabber. Det har derimot ingen verdens ting med ytelse å gjøre, for hvis du gjør denne feilen så vil det enkelt og greit ikke kompilere på annen driver.

Lenke til kommentar

Denne er uansett spennende å lese fra Nvidia angående OpenGL / Vulkan : 

https://developer.nvidia.com/transitioning-opengl-vulkan

Et av scenariene der Vulkan visstnok forbedrer situasjonen:

 

 

  • Intolerance to missed frames or micro stuttering. If your application is sensitive to stuttering, then Vulkan’s explicit design could allow you to manage state and resources better than internal driver heuristics, by controlling explicitly when expensive operations happen during rendering of a scene.
  • Balanced GPU/CPU usage ratio. There are no fundamentally different GPU features in Vulkan versus OpenGL. As a consequence, if the GPU workload dominates the rendering time in your application, and is expected to stay that way (growing problem size with new hardware generations…), Vulkan may not offer any speed-up to you. Or differently phrased, do you have a good use-case for the additional CPU time gained with moving to Vulkan (or indirect effects such as potentially lower CPU power usage)?

Med andre ord er Vulkan det optimale APIet for:

  • FPS
  • Action
  • RTS
  • MOBA
  • Arcade

Takket være mindre stuttering og tapte frames

 

  • TBS
  • Simulator

Takket være mer CPU-tid til simuleringer.

 

Hvorfor skal man i det hele tatt bruke OpenGL på nye prosjekter da?

  • Liker 1
Lenke til kommentar

Hvorfor skal man i det hele tatt bruke OpenGL på nye prosjekter da?

Det spørs hva man sikter på...

 

Mange utviklere kjenner godt til OpenGL, hvis man ikke trenger ekstrem ytelse så er terskelen lav for å komme i gang.

 

Vulkan legger for øyeblikket opp til at utvikler skal gjøre veldig mye selv, det gjør terskelen betydelig høyere. Dette vil jo selvsagt endre seg når flere 3. part 3D-motorer kommer med skikkelig støtte for Vulkan, men det er enda litt frem i tid.

Endret av HKS
  • Liker 1
Lenke til kommentar

Du er inne på noe som ofte er misforstått. Der er noen aspekter av shadere som Nvidia ikke er like strenge som spesifikasjonen, noe de har valgt siden shader-kompilatoren til GLSL er den samme som HLSL for Nvidia, som er Cg-kompilatoren. Derfor kan du altså i noen tilfeller kompilere feil OpenGL-syntaks og utviklere som ikke er oppmerksom på dette kan gjøre tabber. Det har derimot ingen verdens ting med ytelse å gjøre, for hvis du gjør denne feilen så vil det enkelt og greit ikke kompilere på annen driver.

 

Kan ikke dette da føre til at spill får en "failsafe"-sti for kompilatorer som ikke tolerer feil i spesifikasjonen, og en "rask"-sti for kompilatorer som tolererer feil i spesifikasjonen?

 

Det blir lett å gjøre en parallell til HTML-situasjonen for ca 10 år siden der mange websider ble bygget rundt IE5 sin motor.

Lenke til kommentar

 

Nå er det vulkan og DX12 som gjelder! AMD gjør det meget bra der sammenlignet med nvidia! Doom DX12 viser sammen trenden som tidligere DX12 tester. Kun pascal som kan redde nvidia ang. DX12 og Vulkan! AMD gjør det mye bedre enn nvidia uten optimalisering...

Vulkan og DX12 blir ikke virkelig relevant før om to-tre år tidligst, og innen den tid vil både 390X og Fury X være utdaterte kort ytelsesmessig

Det tar ca 1 år! Mange DX12 tittler dukker opp i år, og mange fler neste år! De fleste sitter med sitt skjermkort i mange år før dem oppgraderer!  Pascal vil ikke bli redningen for nvidia! AMD kommer til å spise markedsandeler i fra nvidia^^ DX11 historien er en saga blott nå! GCN ble lansert for tidlig, da den er en DX12 arkitektur. Bra for nvidia at AMD tenker litt lenger enn andre^^

Endret av Koven
Lenke til kommentar

Ser ut som du har rett der Noreng , jeg tolker i alle fall sidene til Nvidia på den måten du skriver.

Så da kan man spørre seg hva man skal bruke OpenGL til i fremtiden om de ikke greier å få på plass endringer som kan gjøre det mer aktuelt igjen.

Tror de fleste i industrien ser på Vulkan som en oppfølger til OpenGL.

Opprinnelig kodenavn var jo faktisk glNext.

 

OpenGL kommer selvsagt til å være rundt veldig lenge, på samme måte som DX11 også kommer til å mvære rundt veldig lenge...

Lenke til kommentar

 

Du er inne på noe som ofte er misforstått. Der er noen aspekter av shadere som Nvidia ikke er like strenge som spesifikasjonen, noe de har valgt siden shader-kompilatoren til GLSL er den samme som HLSL for Nvidia, som er Cg-kompilatoren. Derfor kan du altså i noen tilfeller kompilere feil OpenGL-syntaks og utviklere som ikke er oppmerksom på dette kan gjøre tabber. Det har derimot ingen verdens ting med ytelse å gjøre, for hvis du gjør denne feilen så vil det enkelt og greit ikke kompilere på annen driver.

Kan ikke dette da føre til at spill får en "failsafe"-sti for kompilatorer som ikke tolerer feil i spesifikasjonen, og en "rask"-sti for kompilatorer som tolererer feil i spesifikasjonen?

 

Det stemmer, og i tilfellet med Doom så skal du ikke se bort i fra at det har skjedd. Utvikleren selv gikk ut på Twitter og sa at denne alfa-koden var flere måneder gammel, og at det var før de hadde begynt med PC-optimeringer.

På det tidspunktet var det kun gjort konsoll-optimeringer (les for AMD hardware).

Lenke til kommentar

Hvorfor skal man i det hele tatt bruke OpenGL på nye prosjekter da?

Vi er der hvor utviklere bør begynne med å vurdere Vulkan for nye prosjekter, gitt at de lager spillmotoren. Men selv dyktige utviklere vil trenge flere måneder på å bli godt kjent med Vulkan, og når produktet skal ferdigstilles bør være en del av vurderingen. Det er litt kjedelig om produktet mister 30% av kundemassen hvis de velger å lansere et spill på Vulkan for tidlig. Ting som skal lanseres om 1.5-2 år vil nok være mindre problematisk.

 

Kan ikke dette da føre til at spill får en "failsafe"-sti for kompilatorer som ikke tolerer feil i spesifikasjonen, og en "rask"-sti for kompilatorer som tolererer feil i spesifikasjonen?

Neppe, det handler om syntaks på shader-kode*. Hvis du skal aktivere funksjonalitet utover minste-spesifikasjonen så må det eksplisitt inkluderes.

 

-----

 

*)

 

 

Et par her lurer sikkert på hvorfor jeg snakker om "shadere" hele tiden. "Shader" er terminologi som henger igjen fra scripting av skyggelegging i gamle 3D-modelleringsprogram. Når vi snakker om shader-kode for Direct3D, OpenGL, osv. så er det bare rett og slett kompilert GPU-kode som kjører på GPUen, og den kan gjøre langt mer enn skyggelegging.

 

 

 

Det tar ca 1 år! Mange DX12 tittler dukker opp i år, og mange fler neste år! De fleste sitter med sitt skjermkort i mange år før dem oppgraderer! Pascal vil ikke bli redningen for nvidia! AMD kommer til å spise markedsandeler i fra nvidia^^ DX11 historien er en saga blott nå! GCN ble lansert for tidlig, da den er en DX12 arkitektur. Bra for nvidia at AMD tenker litt lenger enn andre^^

Det var fryktelig mange påstander her :p

Jeg vet fremdeles ikke hvordan AMD tenker lenger enn andre?

Lenke til kommentar

 

Ser ut som du har rett der Noreng , jeg tolker i alle fall sidene til Nvidia på den måten du skriver.

Så da kan man spørre seg hva man skal bruke OpenGL til i fremtiden om de ikke greier å få på plass endringer som kan gjøre det mer aktuelt igjen.

Tror de fleste i industrien ser på Vulkan som en oppfølger til OpenGL.

Opprinnelig kodenavn var jo faktisk glNext.

 

OpenGL kommer selvsagt til å være rundt veldig lenge, på samme måte som DX11 også kommer til å mvære rundt veldig lenge...

 

 

Isåfall så er jo dette utelukkende positivt for utviklerne og oss forbrukerne da langt flere kommer til å ta dette i bruk. Har også lagt merke til at Vulkan vil være enklere å implementere i langt flere typer enheter noe som kan gjøre portering av spilltitler langt enklere , noe som igjen vil gjøre at langt flere utviklere vil ønske å ta dette i bruk med tanke på innsparinger og bredere markedsandeler uten at man må fordele budsjettet på flere platformer.

  • Liker 1
Lenke til kommentar

Kan ikke si at jeg ser en trend nå med ytelsen som AMD kortene nå får : http://techfrag.com/2016/03/01/far-cry-primal-benchmarks-show-amd-with-performance-lead-over-nvidia/ , hvor mange benchmarker er det snakk om nå hvor vi ser den samme trenden?

 

Greit nok at det er "alpha" eller tidlige tester, men noe peker på at man nå får utnyttet Amd skjermkortene langt bedre , såpass at flere av de eldre kortene får seg et kraftig hopp i ytelsen i forhold til Nvidia kortene og vil derfor være langt mer konkurransedyktig i henhold til pris / ytelese.

 

 

As it turns out, AMD cards continue to outperform their Nvidia counterparts. Only the GeForce GTX 980 Ti could stay in the game, and that is the OC Edition. But as we climb up to the Ultra HD resolution, the Radeon R9 Fury X dethrones 980 Ti G1 Gaming, becoming the best graphics solution.

 
For FHD resolution, AMD cards with reference clock speeds are even faster than the overclocked Nvidia GPUs. The Radeon R9 390 is 70 percent faster than an overclocked GeForce GTX 980, while the GTX 970, which actually competes with the R9 390, is buried deep in the list.
Endret av Malvado
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...