Gå til innhold

TEST: Ytelsestest i 3DMark Time Spy


Anbefalte innlegg

Videoannonse
Annonse

Hvorfor ikke vulcan? Så cpu\ram har ikke så mye å si for resultatet av score? Da vulcan er mindre avhengig av windows?

 

For jeg kunne ønske også drivere har mindre å si for resultatet, for AMD\nvidia har periodevis forskjellig drivere og problemer. DX 12 tror jeg i fleste tilfeller gir bedre resultat med nvidia. Mantle derimot foretrekker AMD.

 

For problemet med mye 3d mark tester gir ikke detaljer forklaring hvor bra skjermkort scorer mot andre skjermkort i samme serie.

Da en del legger til overklokket skjermkort\cpu ser man ofte enkelte får lavere resultat.

 

Hadde vært fint om dere kunne lagt til SLI/crossfire oppsett så ser man også hva man kan forvente.

 

Nå er det ikke overraskene RX 480 ikke kan måle seg med GTX 1060 eller bedre.

Da måtte nvidia ha laget dårlig drivere. Men usikkert med GTX 1050 eller low profile kort.

Endret av LMH1
  • Liker 2
Lenke til kommentar

For jeg kunne ønske også drivere har mindre å si for resultatet, for AMD\nvidia har periodevis forskjellig drivere og problemer. DX 12 tror jeg i fleste tilfeller gir bedre resultat med nvidia. Mantle derimot foretrekker AMD.

Vel,

 

Noe av poenget med DX12 er jo å fjerne unødvendig overhead fra drivere, men da er det selvsagt mer opp til spillutviklerene selv og optimere koden for flere tråder, og det er her mange spill faller igjennom.

 

DX12 eksponerer hardware mer direkte, og hvilke produsent som får bedre resultater vil nok i høyere grad ble den produsenten som "sponser" utviklingen av spillet.

 

Mantel er et proprietært API fra AMD som nå er lagt dødt.

  • Liker 2
Lenke til kommentar

Men hvordan vet man hvor mye bedre skjermkort fra GTX 1080 serien er sammenlignet hva man har?

Kanskje 3dmark heller burde lage målinger på den måten?

 

For jeg mener mye av slike ytelse test er det håpløst å ungå å lese i forum\tester å avgjøre når det er på tide å bytte skjermkort eller andre pc deler, ram og cpu er enkelt det sjekker man i oppgavelinjen.

Men det får man ikke gjort i spill med mindre man har 2 skjermer, finnes jo programmer som msi afterburner som kan vise enkelt spill, men funger dårlig i nye DX 12\vulcan spill har jeg merket.

 

Slik bør programmet være laget for det kan være selv GTX 1080 ikke klarer å dra 3d mark testene i 4k særlig bedre en 2x GTX Titan i SLI.

Men man slipper like mye støy muligens.

 

Er slike "Draw FPS: Com_showFPS 3" som viser FPS i spillet basert på vulcan?

Slik at man kan lage en gode som funger i komando for alle spill?

Usikker hvordan man viser cpu\minnebruk og gpu bruk med samme kommando?

Endret av LMH1
Lenke til kommentar
Gjest Slettet+987132984

Testen er godt nytt for en del av oss med eldre AMD-kort. Den antyder at skjermkortene holder seg brukbare litt lengre enn man skulle tro. Jeg har kun full HD-skjerm, og mitt R9 290x holder greit.

Lenke til kommentar

Dette var en dårlig gjennomført test, og mye informasjon er regelrett feil. Denne posten burde dere absolutt svare på Tek, og så oppdatere artikkelen.

 

Fra Artikkel:

-------------------

"Til forskjell fra Fire Strike, som er en DirectX 11-benchmark, er Time Spy bygget fra grunnen av for å teste ytelsen i applikasjoner basert på Microsofts nye DirectX 12-motor.

------------------

"AMD har hevdet at deres grafikkort skal ha en klar fordel i DirectX 12-spill. Vi ser som nevnt antydninger til at RX 480 gjør det bedre i den DX12-baserte Time Spy-demoen i forhold til i Fire Strike, men det klarer ikke riste av seg GTX 1060."

-------------------

 

Her en god oppsummering fra en av topp-anmeldelsene på Steam:

-----------------------------------------

"This "upgrade" is sort of pointless, as it only enables the user to custom control their benchmarks. However, the real issue here is that this is not a true DX12 synthetic benchmark.

 

I repeat: THIS IS NOT A TRUE DX12 SYNTHETIC BENCHMARK.

 

Based on Futuremark's official press release on 07/19/2016, "A CLOSER LOOK AT ASYNCHRONOUS COMPUTE IN 3DMARK TIME SPY," only a single code path is being used to test the GPU, instead of a multi code path that maximimizes the GPU's performance. In other words, all GPUs will only run at bare-minimums implementations of DX12, instead of the actual implementations of DX12 that pulls out the potential, raw performances of the GPUs.

 

In short, DX12 enables multi-compute queues, but this synthetic benchmark only enables single compute queues on GPUs.

 

It means that AMD GPUs won't actually run at their highest potential DX12 performance, and NVIDIA GPUs are given a "handicap" by this benchmark, so it won't show the actual synthetic multi async compute results that's being used in modern and future DX12 titles.

 

This synthetic benchmark is supposed to be "Neutral" to all GPUs, but doing so doesn't even maximize the theoretical benefits of GPU architectures that enables multi-compute queues in actual DX12 scenerios. Unless/Until a patch or update enables multi-compute queues in the options, this benchmark is both a waste of an "Upgrade" and a waste of synthetic DX12 implementation.

 

I regret making this purchase and I am sorely disappointed as to how this is "fair" to all GPUs that greatly benefits from actual DX12 implementations. I do not recommend people to purchase/download, both the free version and this upgrade version."

--------------------------------------

 

Så med andre ord så er ikke dette en sann test av AMDs (eller Nvidias) potensiale i DX12, fordi TimeSpy ikke støtter multicompute etc. etc.

 

Kan jeg få ta betalt for å gjøre jobben deres snart? Det høres respektløst ut, og det er egentlig ment litt sånn også, fordi mangelen på research i en slik "test" som dette her blir bare for dumt.

 

DISCLAIMER: Jeg eier en GTX1080 og X34A Gsync monitor, og er på ingen måte en AMD fanboy. Alt jeg ønsker er en saklig og grundig artikkel, som presenterer all informasjon på en oversiktlig og nøytral måte.

  • Liker 1
Lenke til kommentar

Hvorfor ikke vulcan? Så cpu\ram har ikke så mye å si for resultatet av score? Da vulcan er mindre avhengig av windows?

 

Jeg har ikke noe i mot Vulkan, og greit nok at Vulkan støtter flere plattformer, men så vidt jeg kan se er ikke Vulkan mer low level enn DX12. Jeg kan ikke se at forskjellene mellom DX12 og Vulkan på noen måte vil påvirkes mer eller mindre av CPU/RAM for den ene eller den andre.

 

Når det gjelder drivere så arver Vulkan så ser jeg ikke at Vulkan er mindre avhengig av drivere enn DX12. Faktisk så har jeg inntrykk av det motsatte. Ser også på nett at noen er skeptiske til at Vulkan arver for mye fra OGL i forbindelse med denne implantasjonen.

 

Det finnes ikke spesielt mye å teste Vulkan mot heller, og det man så langt ser på en god del tester er at Vulkan gir bedre score enn OGL, men ofte lavere enn DX11. Needless to say så gjenstår det en del.

 

Jeg ser heller ikke hvordan tester med Vulkan skulle gi bedre sammenligningsgrunnlag mellom generasjoner enn DX12? En annen testplattform enn 3D mark er en adskilt diskusjon.

 

Videre finnes det ikke mange spill for Vulkan, og de som er mangler mye på optimalisering. Det er altså ikke mye å teste mot som kan gi leser indikasjoner på hva de kan forvente av ytelse. Det er mye mindre interessant å vite at skjermkort A yter 5% bedre enn skjermkort B, enn å vite hva man faktisk kan forvente i de enkelte spillene.

 

Vulkan er riktig nok kryssplattform, og kan få bred støtte i fremtiden. Valve sier det ikke er noe poeng i å utvikle i noe annet, men faktum er fremdeles at en stor andel av de store spillene som slippes på PC per i dag benytter seg av DX. Ser man på statistikken på eksempelvis steam så har Windows 95.7% av markedet, og Windows 10 kryper opp mot 50%, opp 20% siden mars. Og dette tallet vil fortsette å stige selv om tiden for gratis oppdatering er over.

 

Andelen ikke Windows maskiner er da 3,37% for OSX og 0,81% for Linux, hvorav sistnevnte egentlig er den mest aktuelle plattformen for AAA spill som fullt ut drar nytte av de nye titlene. Utviklere sitter da med mye kunskap inne om DX utvikling, og Vulkan er bare marginalt i startgropen. Selv om Vulkan støtter pre W10, så er det ikke gitt at utviklere umiddelbart trykker Vulkan til brystet.

 

Vi skal ikke glemme at Vulkan i så måte ikke bringer med seg noe nytt, og samme argumentasjon som nå brukes for Vulkan ble også brukt for OGL. Og det er ikke helt uten grunn at DX har vært den dominerende standarden på PC. OGL har vært rotete, og har i det store og hele ligget noen steg bak DX utviklingen.

 

En annen ting med DX12 er at det er et feature basert API. Så API'et skalerer veldig lett mot mange generasjoner med GPU'er ved at de kun skriver instruksjoner mot ett enkelt API uten å måtte tilpasse instruksjonene for forskjellige GPU generasjoner som er kompatible med forskjellige DX feature levels. Altså, en GPU kan støtte DX12 i DX 11.1 feature level. Samtidig som alle GPU'er med støtte for DX12 nyter godt av none feature level egenskaper, som multi-threading and multi-gpu egenskapene i DX12. Jeg vet ikke hvordan Vulkan er tenkt å håndtere dette, men det letter i allefall arbeidet for utviklere betraktelig på DX12.

 

Jeg har ikke noe i mot Vulkan, for all del. Og det kommer sikkert til å bli brukt av flere utviklere. Men det er ikke automatisk noen DX killer.

Lenke til kommentar

...

 

"Beyond merely being built in DirectX 12, Time Spy also supports many of DirectX 12’s highlight features. That includes asynchronous compute, which allows compute and graphics rendering tasks to run simultaneously, rather than one after the other; explicit multi-adapter in the linked-node configuration, which essentially performs similarly to SLI or CrossFire, but allows the benchmark to pool the resources of the two graphics cards; “explicit synchronization between CPU, GPU, multiple GPUs, and multiple GPU queues;” and several other under-the-hood tricks like resource binding and data “heaps,” all running in a custom engine."

Lenke til kommentar

 

...

 

"Beyond merely being built in DirectX 12, Time Spy also supports many of DirectX 12’s highlight features. That includes asynchronous compute, which allows compute and graphics rendering tasks to run simultaneously, rather than one after the other; explicit multi-adapter in the linked-node configuration, which essentially performs similarly to SLI or CrossFire, but allows the benchmark to pool the resources of the two graphics cards; “explicit synchronization between CPU, GPU, multiple GPUs, and multiple GPU queues;” and several other under-the-hood tricks like resource binding and data “heaps,” all running in a custom engine."

 

 

Igjen er det kanskje lurt å ta et dypdykk i kildekoden som flere erfarne utviklere har gjort og utifra det så kan man vel igjen si at implementeringen i testen av noen av fordelene til DX12 er rett og slett helt håpløs. Selv Nvidia med langt bedre støtte for "Asynchronous compute" kommer ikke i nærheten av det kortet trolig kan yte om dette ble utnyttet bedre.

 

 

Over til kritikk av Smedsrud sin artikkel :

 

Tittelen til denne artikkelen er svært misvisende , om det er hensiktsmessig eller ei vet nå ikke jeg , men man kan få inntrykket av at dette er fasitten for samtlige DX12 spill :

 

Vi har testet DirectX 12-ytelsen til 17 grafikkort

 

Dette burde endres til det samme som denne forumtråden da det på den måten ikke er like misvisende og det er flere grunner til det :

 

3Dmark er i beste fall en syntetisk test som skal i teorien kunne vise til hvor bra skjermkortene yter under svært stressende scenarioer om alle funksjonene i DX12 har blitt implementert riktig. Det er nå satt stor tvil i nettopp dette aspektet både fra Nvidia eiere og Amd eiere og man har til og med tatt en dypdykk i hvordan dette har blitt implementert. Resultatet var skuffende og man kan si at mye av potensialet i både Nvidia serien og Amd serier blir ikke brukt.

 

En syntetisk test greier heller ikke å vise til hvordan skjermkortene fungerer i spill og da er det ofte ting vi selv reagerer på som drops under konkrete omstendigheter og hvordan dette faktisk føles under spilling. I noen tilfeller har det vist seg at noen kort nesten blir ubrukelige i multiplayer eller at man får langt mer behov for cpu'en enn det man først trodde.

 

Som jeg har påpekt før et par ganger så er 3dmark bare et verkøy som kan vise noe av potensialet til skjermkortene våre, men det krever at både de som bruker programvaren er klar over eventuelle begresninger verktøyet har og at man trolig bør se på et større og bredere utvalg av spill og titler for å få en god indikasjon på hva som er bra.

 

Eksempelvis skal man konkludere kun utifra 3Dmark så hadde vel de fleste sagt at 1060 er det beste kortet i DX12... 

Lenke til kommentar

Hvorfor ikke vulcan? Så cpu\ram har ikke så mye å si for resultatet av score? Da vulcan er mindre avhengig av windows?

 

For jeg kunne ønske også drivere har mindre å si for resultatet, for AMD\nvidia har periodevis forskjellig drivere og problemer. DX 12 tror jeg i fleste tilfeller gir bedre resultat med nvidia. Mantle derimot foretrekker AMD.

 

For problemet med mye 3d mark tester gir ikke detaljer forklaring hvor bra skjermkort scorer mot andre skjermkort i samme serie.

Da en del legger til overklokket skjermkort\cpu ser man ofte enkelte får lavere resultat.

 

Hadde vært fint om dere kunne lagt til SLI/crossfire oppsett så ser man også hva man kan forvente.

 

Nå er det ikke overraskene RX 480 ikke kan måle seg med GTX 1060 eller bedre.

Da måtte nvidia ha laget dårlig drivere. Men usikkert med GTX 1050 eller low profile kort.

 

http://www.techspot.com/review/1237-msi-geforce-gtx-1060-3gb/page2.html

Tester så langt viser at AMD kort får en massiv ytelsesforbedring i DX12. Mens Nvidia kort bare får en liten ytelsesforbedring eller tilbakegang.

Veldig fornøyd med mitt R9 290 iallefall. Knuser både gtx 780 og 780 Ti i timespy.

Lenke til kommentar

Dette er jo en Timespy test, ikke en DX12 test. Skal man kjøre en DX12 test bør man strengt tatt ta med mer en én syntetisk bench. Hadde vært fint å se alle disse kortene kjørt gjennom en 3-4 spill også, for å få et mer fullstendig bilde - tester som har gjort dette tidligere viser ofte at resultatet i Timespy alene ikke viser hele sannheten om DX12 ytelse :D - flott at tek kjører egne bench btw :)

  • Liker 1
Lenke til kommentar

"Vi skal ha et dx 12 benchmark. La oss starte med Tumb gimp raider. Deretter finner vi et syntetisk benchmark med den dårligst troverdighet.." Trenger ikke å gjøre mer i år. -tek.no 2016

Jeg vet at første versjon av DX12 op RoTR var litt buggy, men det er vel fikset i siste parch tror jeg.

Hva mener du er galt med Tomb Raider?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...