Gå til innhold

Dette er vinnerne og taperne fra forrige generasjon


Anbefalte innlegg

 

Enig. De burde slengt med DOOM

 

Her har du DOOM benchmarks. Så mye for at AMD ga Mantle kode til Vulkan og skulle liksom ha en fordel med drivere i forhold til Nvidia. Dette er jo en ganske stor driverfordel til Nvidia her. I 1080p er fordelen til Nvidia ekstrem. 970 på nivå med R9 nano.

2560.png

Lenke til kommentar
Videoannonse
Annonse

 

 

Enig. De burde slengt med DOOM

 

Her har du DOOM benchmarks. Så mye for at AMD ga Mantle kode til Vulkan og skulle liksom ha en fordel med drivere i forhold til Nvidia. Dette er jo en ganske stor driverfordel til Nvidia her. I 1080p er fordelen til Nvidia ekstrem. 970 på nivå med R9 nano.

 

 

Tkongen : Tror du må avvente litt , slik jeg forstår det brukes det en OpenGL variant som ikke tar i bruk siste del av Vulkan / Mantle.

 

Edit : Har sjekket dette litt mer ut , 4.3 ,4.4 og 4.5 er brukt, vanskelig å si nøyaktig hvordan dette fungerer.

Er dermed en del kontrovers rundt Doom , se her : https://www.reddit.com/r/Amd/comments/4j7e48/doom_benchmarks_970_73_faster_than_390_the_way/

 

Fikk lest litt mer nå , så du må nok endre på det du nettopp sa Tkongen :

 

 

 

The engine supports OpenGL, while Vulkan API support will be patched in at a later date.
Endret av Malvado
Lenke til kommentar

Til alle som klager på viftestøy, varme kort etc:

egentlig er ALLE stock luftkjølere "so-so" med tanke på effektiv kjøling. Hvis dere anskaffer flaggskip-grafikkort som oftest avgir 200-400+ watt med varme burde dere veldig seriøst vurdere vannkjøling, og ikke hva som helst - men fra seriøse produsenter som kan vannkjøling, eksempelvis EKWB.

Ja det koster, men til gjengjeld kan kort som vanligvis opererer med ca 80C under full last (eks: 100% belastning med SETI som bruker GPU, over lang tid) vil gjerne ligge godt under 60C, kanskje under 50C - selv med CPU kjøler i samme loopen.

Så hvis dere kjøper flaggskip-kort for 6000NOK og mer, og har "rigger" som gjerne koster 20k og oppover, ikke vær gnitne og skaff dere vannkjøling.

En annen men like viktig bonus er at vannkjølte maskiver er veldig stillegående. Enten stor radiator med saktegående vifter eller en helt passiv (men stor) radiator fungerer helt ypperlig.

 

Og før noen klager på lekkasjer o.l: jeg har bygget sammen mitt system for nesten 2 år siden. Har aldri etterfylt kjølevæske, og den har ikke gått ned 1mm på tanknivå. Om man bruker hodet (og nyttige tips fra andre) så fungerer alt ypperlig.

 

Jeg har to 980Ti med orginalkjøler, klokket til 1400mhz og de ligger på 68-73c avhengig av last.

 

Custom viftehastighet i afterburner.

Endret av Simkin
Lenke til kommentar

 

 

 

Enig. De burde slengt med DOOM

 

Her har du DOOM benchmarks. Så mye for at AMD ga Mantle kode til Vulkan og skulle liksom ha en fordel med drivere i forhold til Nvidia. Dette er jo en ganske stor driverfordel til Nvidia her. I 1080p er fordelen til Nvidia ekstrem. 970 på nivå med R9 nano.

 

 

Tkongen : Tror du må avvente litt , slik jeg forstår det brukes det en OpenGL variant som ikke tar i bruk siste del av Vulkan / Mantle.

 

Edit : Har sjekket dette litt mer ut , 4.3 ,4.4 og 4.5 er brukt, vanskelig å si nøyaktig hvordan dette fungerer.

Er dermed en del kontrovers rundt Doom , se her : https://www.reddit.com/r/Amd/comments/4j7e48/doom_benchmarks_970_73_faster_than_390_the_way/

 

Fikk lest litt mer nå , så du må nok endre på det du nettopp sa Tkongen :

 

 

 

The engine supports OpenGL, while Vulkan API support will be patched in at a later date.

 

 

Ja, tenkte vel at det var noe galt med slike tall. Det er jo langt mer enn bare dårlig optimalisering skulle tilsi.

 

Dette spillet viser jo og veldig godt hvorfor en ikke kan ta disse tidlige DX12 benchmarksene så seriøst. Uansett om Vulkan patches inn, så kommer det jo ikke til å være et spill bygd fra grunnen av med Vulkan i tankene akkurat.

Lenke til kommentar

Doom spillene har alltid brukt Id Tech som er basert på OpenGL og er derfor på ingen måte avhengig av DX for å fungere.

Siden Nvidia som regel hadde bedre drivere for OpenGL så har kortene til selskapet som regel hatt bedre ytelse enn Amd , selv om ytelsen på amd sine kort faktisk har gått opp over tid takket være bedre drivere og openGl støtte.

 

Man kan jo spørre seg hvorfor dette ikke ble implementert ved lansering av spillet , spesielt siden Carmack selv var ganske så imponert for noen måneder siden : http://wccftech.com/carmack-vulkan-impressive-improvements-native-code/

Lenke til kommentar

Hva med oss som ikke spiller? Jeg skal investere i nytt grafikkort for lightroom/photoshop/video.

Er det noen av disse testene vi kan se på for å se hva som gir bra ytelse for det?

 

Flaggskip-spillkort er nok langt, laaaaaangt mer kraftigere enn hva kortet for dine behov burde være.

Det du burde kanskje se etter er kort som støtter 4k (og oppover), kanskje til og med et litt beskjedent vifteløst kort er mer enn nok for foto/video redigering.

  • Liker 1
Lenke til kommentar

GAMEWORKS SPILL, DETTE BLIR NØYRALT.

 

Skulle ønske dere kunne tatt med noen indie spill, eks Trine eller andre. Da disse er mer nøytrale.

Jeg er selv litt skeptisk til Gameworks , men her sier i alle fall TEK at de slår av de innstillingene som gjør at AMD kort ikke yter like bra.

Lenke til kommentar

Burde dere ikke ha tatt med spill som bruker Directx 12?

Rise of the Tomb Raider sin directx 12 patch er bare en spøk. Alle kort mistet flere fps med å kjøre på directx 12 istedenfor directx 11.

Ashes of the Singularity er vel det eneste spillet foreløpig som har blitt bygd på directx 12 fra starten av og faktisk utnytter fordelene med directx 12.

Forhåpentligvis dukker det opp flere spill med ordentlig directx 12 støtte, dette vil hjelpe de med Crossfire og SLI endel :).

Lenke til kommentar

Doom spillene har alltid brukt Id Tech som er basert på OpenGL og er derfor på ingen måte avhengig av DX for å fungere.

Siden Nvidia som regel hadde bedre drivere for OpenGL så har kortene til selskapet som regel hatt bedre ytelse enn Amd , selv om ytelsen på amd sine kort faktisk har gått opp over tid takket være bedre drivere og openGl støtte.

 

Man kan jo spørre seg hvorfor dette ikke ble implementert ved lansering av spillet , spesielt siden Carmack selv var ganske så imponert for noen måneder siden : http://wccftech.com/carmack-vulkan-impressive-improvements-native-code/

Tipper det har med penger å gjøre. Nå får de all markedsføring og hype rundt Vulkan med å liksom være et Vulkan spill. Det uten at de trenger å gjøre så mye for å faktisk lage et Vulkan spill. Når problemene rundt AMD sine kort er fikset (vet ikke hvem sin skyld det er) så vil jo uansett DOOM kjøre bra selv på ganske svak hardware. Så verdien av å gjøre det skikkelig i Vulkan for forbedret fps er nok ikke verdt det i et kostperspektiv. Det å få hypen rundt Vulkan uten å gjøre Vulkan derimot er nok det.

 

GAMEWORKS SPILL, DETTE BLIR NØYRALT.

 

Skulle ønske dere kunne tatt med noen indie spill, eks Trine eller andre. Da disse er mer nøytrale.

Du reagerer derimot ikke på Tomb Raider? Det at Nvidia har et paraply-navn for sine teknologier betyr ikke at AMD ikke også har teknologier. De er jo uansett alle skrudd av.

 

GTA 5 er et eksempel på trippel A som er veldig nøytralt. Indie spill får ofte så høy fps at det er poengløst å teste det. Eller så er de kodet dårlig på en måte som får uheldig virkning. De klan og lett favorisere en produsent mye, ikke fordi de har samarbeidet med noen, men fordi slik ble det tilfeldigvis. Eller at dev teamet på 5 stk alle hadde Nvidia eller AMD GPU.

 

Burde dere ikke ha tatt med spill som bruker Directx 12?

Rise of the Tomb Raider sin directx 12 patch er bare en spøk. Alle kort mistet flere fps med å kjøre på directx 12 istedenfor directx 11.

Ashes of the Singularity er vel det eneste spillet foreløpig som har blitt bygd på directx 12 fra starten av og faktisk utnytter fordelene med directx 12.

Forhåpentligvis dukker det opp flere spill med ordentlig directx 12 støtte, dette vil hjelpe de med Crossfire og SLI endel :).

Ashes of the Singularity er et synthetic benchmark forkledd som et spill. Det å teste det er å teste hvor god ytelse AMD maksimalt kan få ut av DX 12 med sine GPUer og CPUer, kontra et worst case DX 11 spill. Altså helt ubrukelig for å finne ut noe om virkelige spill. Det er laget for å lage overskrifter om store DX 12 forbedringer, ikke for å være realistisk.

 

Vi har enda ingen gode DX 12 spill, så DX 12 benchmarks må en vente med. Det er jo det samme med Doom-benchmarkene jeg viser over her. De sier ingenting om Vulkan ytelse for AMD/NVidia, og de vil ikke etter patchen heller. Selv med Vulkan patch og når devs og AMD har fikset problemene som det er for AMD, så vil det fortsatt være benchmark for OpenGL ytelse egentlig. Det er jo bygget som et OpenGL spill, ikke Vulkan spill.

 

Jeg fikk bare lyst til å skrive et innlegg slik som alle som skriver om DX12 skriver :) Jeg er og glad for at dette kom. Doom kommer til å vise klart at en ikke kan ta tidlige benchmarks av slike ting som bevis for noe. Nettopp fordi de ikke er skikkelig DX12/Vulkan. Nvidia kunne nok lett jobbet sammen med noen devs og lansert et spill sammen med launchen av GTX 1080. Et spill som brukte Vulkan og var bygget med det fra bunnen av og som viste en 50% ytelsesfordel til Nvidia for ellers like kort. Det hadde likevel ikke betydd noe, og det er jo et slik "spill" Ashes of the Singularity er.

Lenke til kommentar

Ashes of the Singularity er et synthetic benchmark forkledd som et spill. Det å teste det er å teste hvor god ytelse AMD maksimalt kan få ut av DX 12 med sine GPUer og CPUer, kontra et worst case DX 11 spill. Altså helt ubrukelig for å finne ut noe om virkelige spill. Det er laget for å lage overskrifter om store DX 12 forbedringer, ikke for å være realistisk.

Forhåpentligvis dukker det opp flere spill med ordentlig directx 12 støtte, dette vil hjelpe de med Crossfire og SLI endel :).

 

Vi har enda ingen gode DX 12 spill, så DX 12 benchmarks må en vente med. Det er jo det samme med Doom-benchmarkene jeg viser over her. De sier ingenting om Vulkan ytelse for AMD/NVidia, og de vil ikke etter patchen heller. Selv med Vulkan patch og når devs og AMD har fikset problemene som det er for AMD, så vil det fortsatt være benchmark for OpenGL ytelse egentlig. Det er jo bygget som et OpenGL spill, ikke Vulkan spill.

 

Jeg fikk bare lyst til å skrive et innlegg slik som alle som skriver om DX12 skriver :) Jeg er og glad for at dette kom. Doom kommer til å vise klart at en ikke kan ta tidlige benchmarks av slike ting som bevis for noe. Nettopp fordi de ikke er skikkelig DX12/Vulkan. Nvidia kunne nok lett jobbet sammen med noen devs og lansert et spill sammen med launchen av GTX 1080. Et spill som brukte Vulkan og var bygget med det fra bunnen av og som viste en 50% ytelsesfordel til Nvidia for ellers like kort. Det hadde likevel ikke betydd noe, og det er jo et slik "spill" Ashes of the Singularity er.

 

 

Nå føler jeg du uttaler deg om noe du ikke helt har peiling på.

Spillet er faktisk spillbart 

...
Lenke til kommentar

Jeg tenkte på om en ser spillet i et benchmarkperspektiv. Der representerer det ikke så veldig godt hvordan faktiske spilltitler kommer til å være. Dette spillet er jo kodet slik at det foretar veldig mange draw calls og utnytter async compute veldig bra. Så det er åpenbart ikke kodet for DX11, og det er ikke rart at forskjellene blir store med slik koding. Det ble jo vist ved AMD sin Fury launch, som en demo av kortene og hva de er i stand til.

 

 

Som spill er det sikkert helt greit, jeg er fult klar over at du kan spille det :) Så jeg sier ikke at det ikke er et spill på den måten. Jeg sier at ytelsen i det spillet ikke er representativt for hvordan spill kommer til å være som er bare utviklet med spillet i tankene. Selv om de har laget et spill, og det var målet så har de åpenbart arbeidet tett med AMD for å kode det optimalt for å vise stor forskjell på DX11 og DX12. Nvidia sin ytelse i begynnelsen for spillet var jo og ganske dårlig, men den er langt bedre nå. Likt som det som skjer med Doom ville jeg tippe.

 

Ser at slik jeg skrev det først ble mangelfullt fra min side, og jeg forklarte ikke hva jeg mente. Så da blir det jo vanskelig for folk som ikke vet hva jeg tenker (som jeg håper er ingen :p ) å forstå det slik jeg mente det.

 

Jeg vil og si at jeg mener ikke det AotS viser er feil, bare at det er et urealistisk ekstremtilfelle. Derfor jeg sammenligner det medbenchmarks, da de ofte viser dette, og dermed ikke er brukt i altfor stor grad i forhold til mer realistiske spilltester. Og det er på den måten jeg mener AotS blir benchmark og ikke spill, men selvfølgelig så er det jo et fult spillbart spill.

 

Jeg mener heller ikke doom er likt som alle DX 12 titler. Vi vet jo mye mer om DX12 enn Vulkan nå. Det har jo ikke kommet noen skikkelige DX 12 titler enda, men med tanke på tallene for det som er ute nå og arkitektur ol. så er det jo en stor sannsynlighet for at AMD vil tjene mer enn Nvidia på det. Det store spørsmålet blir jo Pascal, da det sannsynligvis er laget mer med DX12 i tankene. Jeg tipper derimot at Pascal kommer til å være omtrent likt som Maxwell i DX12. Det er jo likevel fortsatte et spørsmål om hvor mye forskjell DX12 i så fall gir. Det er ikke sikkert forskjellen blir veldig betydningsfull selv om det er en forskjell. Jeg tror den største forskjellen heller er at AMD nå har god ytelse på sine drivere generelt i forhold til før, og er raskt ute med gode drivere. Det er jo og mer nyttig, da de fleste titler er DX11.

Lenke til kommentar

Jeg synes det burde vært tatt med 2x gaming involved spill og 2x gameworks spill. Uansett om de ekstra finessene er skrudd av vil det favorisere produsenten som hjalp den med utviklingen (derfor like mange hver). ALLE AMD brukere merker at gameworks spill er cancer selv med dritten skrudd av. Eks witcher 3. Med 64x AA skjult i en .ini fil.

 

Dette blir som om to fotballag spiller mot hverandre flere ganger og den ene får hjemmebane hver gang. Level the playing field.

Endret av spots
Lenke til kommentar

Jeg tenkte på om en ser spillet i et benchmarkperspektiv. Der representerer det ikke så veldig godt hvordan faktiske spilltitler kommer til å være. Dette spillet er jo kodet slik at det foretar veldig mange draw calls og utnytter async compute veldig bra. Så det er åpenbart ikke kodet for DX11, og det er ikke rart at forskjellene blir store med slik koding. Det ble jo vist ved AMD sin Fury launch, som en demo av kortene og hva de er i stand til.

 

 

Som spill er det sikkert helt greit, jeg er fult klar over at du kan spille det :) Så jeg sier ikke at det ikke er et spill på den måten. Jeg sier at ytelsen i det spillet ikke er representativt for hvordan spill kommer til å være som er bare utviklet med spillet i tankene. Selv om de har laget et spill, og det var målet så har de åpenbart arbeidet tett med AMD for å kode det optimalt for å vise stor forskjell på DX11 og DX12. Nvidia sin ytelse i begynnelsen for spillet var jo og ganske dårlig, men den er langt bedre nå. Likt som det som skjer med Doom ville jeg tippe.

 

Ser at slik jeg skrev det først ble mangelfullt fra min side, og jeg forklarte ikke hva jeg mente. Så da blir det jo vanskelig for folk som ikke vet hva jeg tenker (som jeg håper er ingen :p ) å forstå det slik jeg mente det.

 

Jeg vil og si at jeg mener ikke det AotS viser er feil, bare at det er et urealistisk ekstremtilfelle. Derfor jeg sammenligner det medbenchmarks, da de ofte viser dette, og dermed ikke er brukt i altfor stor grad i forhold til mer realistiske spilltester. Og det er på den måten jeg mener AotS blir benchmark og ikke spill, men selvfølgelig så er det jo et fult spillbart spill.

 

Jeg mener heller ikke doom er likt som alle DX 12 titler. Vi vet jo mye mer om DX12 enn Vulkan nå. Det har jo ikke kommet noen skikkelige DX 12 titler enda, men med tanke på tallene for det som er ute nå og arkitektur ol. så er det jo en stor sannsynlighet for at AMD vil tjene mer enn Nvidia på det. Det store spørsmålet blir jo Pascal, da det sannsynligvis er laget mer med DX12 i tankene. Jeg tipper derimot at Pascal kommer til å være omtrent likt som Maxwell i DX12. Det er jo likevel fortsatte et spørsmål om hvor mye forskjell DX12 i så fall gir. Det er ikke sikkert forskjellen blir veldig betydningsfull selv om det er en forskjell. Jeg tror den største forskjellen heller er at AMD nå har god ytelse på sine drivere generelt i forhold til før, og er raskt ute med gode drivere. Det er jo og mer nyttig, da de fleste titler er DX11.

 

De kunne lagt spillet under benchmark test :), slik at man vet hvor godt et kort funker med DX12 og Async. Ikke at det er noe problem enda, spillmarkedet overstrømmes ikke akkurat av DX12 eller Vulkan spill.

Håper det dukker opp noen iløpet av året.

Ja, tipper det samme som deg om at Pascal blir likt Maxwell i DX12. Nvidia har de kjappeste DX11 kortene og kan nok leve på en stund til.

 

En annen ting er at spill utviklere blir nok tvunget mer og mer til å utvikle spill som støtter flere skjermkort om noen år. Det begynner å bli vanskeligere og lite kostnadseffektivt å utvikle sterke enkelt kjernet kort.

Tipper at neste konsoll (etter PS 4,5) vil bruke noe lignende Crossfire. Det er mye billigere å produsere mid range kort enn high end og siden AMD lager skjermkort og cpu til alle konsollene nå (Xbox, PS og Nintendo sin neste konsoll), kan de styre utviklingen litt som de vil. DX12 og Vulkan støtter flere skjermkort på en mye bedre måte enn DX11.

 

Endelig har AMD skjønt at gode drivere er viktig :), noe NVIDIA har hatt en stund.

Lenke til kommentar

Kom ellers nye DOOM benchmarks med GTX 1080 nå, som er fra den nye AMD patchen:

http://www.techspot.com/articles-info/1174/bench/DOOM_01.png

Det er en stooooor forbedring for AMD kortene. 970 på 67 fps og 390 på 62 i 1440p. I 4K er faktisk 390 1 fps bedre enn 970.

 

Jeg synes det burde vært tatt med 2x gaming involved spill og 2x gameworks spill. Uansett om de ekstra finessene er skrudd av vil det favorisere produsenten som hjalp den med utviklingen (derfor like mange hver). ALLE AMD brukere merker at gameworks spill er cancer selv med dritten skrudd av. Eks witcher 3. Med 64x AA skjult i en .ini fil.

Dette blir som om to fotballag spiller mot hverandre flere ganger og den ene får hjemmebane hver gang. Level the playing field.

Nvidia har en liten ytelsesfordel i Witcher 3. Det er ikke noe jeg ville beskrevet som "cancer" på noen måte. Hvis spillet er 5% bedre for den ene i forhold til den andre, så er det en liten forskjell. Hvis du ser over igjen så har de en Gaming evolved tittel og en gameworks. Så jeg forstår ikke helt hva du klager på her. Rise of the Tom Raider viser helt klart AMD favorisering. Som alle tomb raider spill noen sinne.

 

 

Jeg tenkte på om en ser spillet i et benchmarkperspektiv. Der representerer det ikke så veldig godt hvordan faktiske spilltitler kommer til å være. Dette spillet er jo kodet slik at det foretar veldig mange draw calls og utnytter async compute veldig bra. Så det er åpenbart ikke kodet for DX11, og det er ikke rart at forskjellene blir store med slik koding. Det ble jo vist ved AMD sin Fury launch, som en demo av kortene og hva de er i stand til.
 
 
Som spill er det sikkert helt greit, jeg er fult klar over at du kan spille det :) Så jeg sier ikke at det ikke er et spill på den måten. Jeg sier at ytelsen i det spillet ikke er representativt for hvordan spill kommer til å være som er bare utviklet med spillet i tankene. Selv om de har laget et spill, og det var målet så har de åpenbart arbeidet tett med AMD for å kode det optimalt for å vise stor forskjell på DX11 og DX12. Nvidia sin ytelse i begynnelsen for spillet var jo og ganske dårlig, men den er langt bedre nå. Likt som det som skjer med Doom ville jeg tippe.
 
Ser at slik jeg skrev det først ble mangelfullt fra min side, og jeg forklarte ikke hva jeg mente. Så da blir det jo vanskelig for folk som ikke vet hva jeg tenker (som jeg håper er ingen :p ) å forstå det slik jeg mente det.
 
Jeg vil og si at jeg mener ikke det AotS viser er feil, bare at det er et urealistisk ekstremtilfelle. Derfor jeg sammenligner det medbenchmarks, da de ofte viser dette, og dermed ikke er brukt i altfor stor grad i forhold til mer realistiske spilltester. Og det er på den måten jeg mener AotS blir benchmark og ikke spill, men selvfølgelig så er det jo et fult spillbart spill.
 
Jeg mener heller ikke doom er likt som alle DX 12 titler. Vi vet jo mye mer om DX12 enn Vulkan nå. Det har jo ikke kommet noen skikkelige DX 12 titler enda, men med tanke på tallene for det som er ute nå og arkitektur ol. så er det jo en stor sannsynlighet for at AMD vil tjene mer enn Nvidia på det. Det store spørsmålet blir jo Pascal, da det sannsynligvis er laget mer med DX12 i tankene. Jeg tipper derimot at Pascal kommer til å være omtrent likt som Maxwell i DX12. Det er jo likevel fortsatte et spørsmål om hvor mye forskjell DX12 i så fall gir. Det er ikke sikkert forskjellen blir veldig betydningsfull selv om det er en forskjell. Jeg tror den største forskjellen heller er at AMD nå har god ytelse på sine drivere generelt i forhold til før, og er raskt ute med gode drivere. Det er jo og mer nyttig, da de fleste titler er DX11.


De kunne lagt spillet under benchmark test :), slik at man vet hvor godt et kort funker med DX12 og Async. Ikke at det er noe problem enda, spillmarkedet overstrømmes ikke akkurat av DX12 eller Vulkan spill.
Håper det dukker opp noen iløpet av året.
Ja, tipper det samme som deg om at Pascal blir likt Maxwell i DX12. Nvidia har de kjappeste DX11 kortene og kan nok leve på en stund til.

En annen ting er at spill utviklere blir nok tvunget mer og mer til å utvikle spill som støtter flere skjermkort om noen år. Det begynner å bli vanskeligere og lite kostnadseffektivt å utvikle sterke enkelt kjernet kort.
Tipper at neste konsoll (etter PS 4,5) vil bruke noe lignende Crossfire. Det er mye billigere å produsere mid range kort enn high end og siden AMD lager skjermkort og cpu til alle konsollene nå (Xbox, PS og Nintendo sin neste konsoll), kan de styre utviklingen litt som de vil. DX12 og Vulkan støtter flere skjermkort på en mye bedre måte enn DX11.

Endelig har AMD skjønt at gode drivere er viktig :), noe NVIDIA har hatt en stund.

 

Problemet er at AotS ikke viser hvor bra noe yter i DX12. Det er laget for å utnytte AMD kort i DX12 til maks, og det er laget til alle styrkene for AMD kort og DX12. Det er ingen hemmelighet. JEg ser folk går og klager så utrolig over Gameworks. Har de sett AotS? Neida, AotS bare viser hvor bra AMD er i DX12......... Det blir bare rene fanboy statements. HVis du mener Gameworks er galt, så er hvertfall AotS det. Det er liksom som å sette AMD og NVidia i en konkurranse der eneste benchmark er Project: CARS. Hvem tror du vinner? Spillet er så til de grader laget for Maxwell, og alle vet at Nvidia kommer til å gruse AMD. Gjett hva? AMD klarer å slå NVidia i AotS også, og det betyr ca like mye som at Nvidia knuser AMD i Project: CARS. Så har du jo et par "DX12" spill som Hitman og Tomb Raider. Begge spillserier som alltid har vært AMD-titler i all tid. Folk blander sammen AMD er mye bedre i DX12, og AMD er langt bedre i custom tailored spill og AMD titler. 

 

Hadde du patchet Project CARS til en slik shitty DX12, som egentlig ikke er DX12, så kan jeg garantere at NVidia hadde knust AMD i DX12 ytelse. Hvis du ser på Doom før AMD sin fiks og later som det er et Vulkan spill. Så kan du bare si: "Wow, Nvidia kommer til å bli så mye bedre i Vulkan og DX12 enn AMD". Ikke sant, på noen måte.

 

 

GTX 1080 har ellers veldig lik DX12/11 i AotS som Maxwell. Vanskelig å si noe utifra det spillet da, og bare et benchmark, men med tanke på hva de gjorde er sannsynligheten stor for at det er ganske likt.

 

 

Konsoll trenger ikke multi GPU for å spare penger. Selv en liten GPU er kraftig nok for hva konsoller targeter av ytelse. De har jo ikke dedikert GPU i konsoller engang. Det er ikke akkurat kraftige maskiner.

Lenke til kommentar

Flott med nytt testoppsett og et bra utvalg kort som baseline! :)

Men hadde det vært mulig å ta med 295x2? Selv om kortet har to GPUer er det fortsatt å regne som ett kort, og til tross for at det tilhører forrige generasjon er det fortsatt AMDs kraftigste.

Det hadde også vært kjekt med tester i enda høyere oppløsninger. Jeg har selv trippelt skjermoppsett i 7680x1600. 3840x2160 er riktignok i nærheten med 67.5%, men de fleste tester med lav/middels oppløsning har tradisjonelt sett favorisert Nvidia, mens AMD skinner i ekstreme oppløsninger. Jeg vurderer å oppgradere mitt 295x2 (mest fordi det bråker noe sinnsvakt) til enten 1080 eller Polaris, men da blir tester i lave oppløsninger forholdsvis irrelevante.

Endret av Kybber
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...