Gå til innhold

Skylake i7-6700K/i5-6600K-tråden


Anbefalte innlegg

Videoannonse
Annonse

Det er ingenting galt med det, men spørsmålet er hvor representativt det er. Jeg spør bare disse brukerne som bruker Intel-E prosessorer i sine argumentasjoner om at de er best til gaming (Nizzen, Betroz, Gabri3L, osv.) , om hvorvidt de spiller i 1080p eller ei. Samtlige av de, inkludert Gabri3L, har enn 1440p-skjerm i sine signaturer. I følge Eurogamer vil 6700K fortsatt ha et forsprang på ~5% i 1080p og. En nokså innskrenket, men lik konklusjon kan trekkes fra TH’s test. Jeg valgte dog, for argumentets skyld å ta utgangspunkt i YouTube-videoen som Gabr3el tok opp. Der innrømmer selv brukeren at en 5960X- og GTX 1080-kjøper sannsynligvis vil kjøre sin PC og sine spill i høyere oppløsninger enn 1080p. 

 

Men hvis du har 5960X + GTX 1080 og spiller i 1080p, og du anser Youtube-videoen som den mest autorative testen for din del (noe som selvfølgelig er veldig begripelig, da det setter deg og din situasjon i et bedre lys), så kan du glede deg over at din CPU til 10,000,- gir deg noen få % bedre ytelse enn en 6700K!

Endret av La Menthe
  • Liker 4
Lenke til kommentar

La Menthe : Hele poenget med at folk tester i 1080p er for å isolere CPU mer, noe som er logisk når det er det man skal teste. Det at man ikke merker forskjell ved 1440p oppløsning mellom de ulike CPU'ene betyr jo bare at skjermkortet er flaskehalsen. Så klarer man å bevise ytelsesforskjell ved 1080p, så er ikke det så irrelevant som du ønsker å ha det til.

 

Selvsagt er en 6700K til 3.5K et mye smartere kjøp for gaming enn en 6900K til 11K... Hverken jeg eller Nizzen har påstått noe annet.

Lenke til kommentar

"Før i tiden" så gikk man gjerne enda lengre ned på oppløsningen, 1280x1024 f.eks for å se hvor flaskehalsen kom. Men dette har jeg ikke sett noen gjøre på en stund. CPU-flaskehals eksisterer i dag også, men gjerne da i SLI og høye framerates. JayzTwoCents (uff) demonstrerte dette i GTA V med tre Titan X. Hvor relevant det er kan jo dog diskuteres :p

Lenke til kommentar

 

Å utrope 6700K som "best" til gaming basert på gjennomsnittlig fps gir svært lite mening.

 

Det er da basert på minimums-FPS og. Henviser da til testene gjort av Eurogamer (Digitalfoundry) og Tomshardware

 

 

Litt dumt av meg å starte denne både i feil tråd og når jeg attpåtil visste at jeg ikke har tid til å følge opp diskusjonen.

 

Men jeg vil ta frem et par ting.

 

Testen i TH er interessant. Men man må ta den for hva den er. Det er rett og slett en test som viser 6600K vs 6320 (-HT) mot Broadwell-E (-HT) på relativt lave frekvenser. Så å snakke om at å teste GTX1080 i 1080p er "kunstig" selv om jeg er helt enig. Så er selve premisset for testen like kunstig i utgangspunktet. Ettersom ingen skrur av HT eller kjører på så lave frekvenser på noen av disse CPU'ene uten en svært god grunn. (Er det 6950X som ikke kommer høyere?). Vi ser også svakheter i testen som ikke er forklart, som for eksempel hvordan 6320 kan ha høyere min fps enn 6700K i enkelte spill. Og også at 6320'en klarer seg bedre i 1440p i et spill enn i både 1080p og 4K.

 

Men titter man selve premisset for hele denne testen, nemlig som de kom frem til i testen av Broadwell-E: "Bioshock Infinite was the only game that favored our Core i7-6700K’s Skylake architecture and 4 GHz+ clock rate".

 

Og fra konklusjonen i den testen:"Core i7-6800K seems like a solid option for gamers looking to build on X99 as affordably as possible, particularly if you only intend to run one or two graphics cards. Given Core i7-6700K’s more advanced architecture, higher clock rate, lower price and more flexible Z170 PCH, the quad-core route is a more cost-effective solution. But we did see a couple of situations where modern titles do benefit from six, eight or ten cores."

 

Du tar opp en interessant ting fra "amatør" testen som jeg ikke tenkte over selv. Nemlig forskjellen på RAM fra 6700K og 5960X systemet. Det vil si, jeg tenkte på det, men i farten tenkte jeg som så at X99 vil jo uansett ha høyere minnebåndbredde med sine 4 kanaler. Så om det er RAM eller CPU som gir fordelen blir litt uinteressant ettersom du ikke får det ene uten det andre. Vel, med mindre du bare bruker 2 av minnekanalene på X99. I etterpåklokskapens lys ser jeg at det var litt slurvete. Og at det også tar opp en interessant "problemstilling".

 

Om man ser på de litt eldre TPU testene av DDR3 RAM, så la jeg merke til en ting der for lenge siden. Og det var at det var aldri noen RAM kit som vant alle testene. 1600MHz kit med lav latency kunne fint slå 2400MHz brikker i et spill. For så å få juling i et annet. Det dannet seg et bilde av tre typer spill. Spill som driter i latency, men vil ha høy frekvens, spill som vil ha det omvendt, og spill som vil ha et kompromiss.

 

Dette kan være grunnen til at 5960X klarer seg bedre i "amatør" testen enn 6700K. RAM kit'et i det systemet er rett og slett funnet seg i en "goldilocks" situasjon. Det kit'et til tross for lavere frekvens gir høyere minnebåndbredde (som forventet med X99) men på grunn av lavere frekvens også muligens lavere latency. Som kan være foretrukket i enkelte av spillene.

 

Når det gjelder påstanden om at X99 er bedre for GTX1080 SLI så ville jeg ikke trodd det var kontroversielt lenger. Det er det for lenge siden vist at ett GTX1080 blir holdt tilbake av å kun få 8 PCIe3.0 linjer i enkelte spill (Til og med 980Ti kan trenge mer enn x8). Du vil kunne finne spill der det ikke er tilfellet, men når man ser de første spillene komme der det ikke er tilfellet. Så er det lite vits i mine øyne i å holde fast på gamle tester.

 

Vi har vært i en situasjon lenge der Intel ikke har trengt å gjøre annet enn å sette opp frekvensen på prosessorene sine. IPC økning fra generasjon til generasjon har vært minimal. Men nå ser vi at de stanger i taket for frekvensen mulig med silisium. Videre forbedringer må komme enten i arkitektur, eller materialvalg om de skal klare å holde nede kjerneantallet (som de ønsker for å få flest mulig CPU'er ut av hver wafer). Jeg tror grafèn er for langt unna, og at det egentlig bare er kjerneantallet igjen å gjøre forbedringer med for øyeblikket.

 

Jeg har som sagt ikke egentlig tid til å gå inn i denne diskusjonen akkurat nå. Så jeg får la det ligge her, og heller ønske alle en trivelig nyttårsaften og forhåpentligvis et godt nytt år. :)

Endret av Gabri3L
Lenke til kommentar

La Menthe : Hele poenget med at folk tester i 1080p er for å isolere CPU mer, noe som er logisk når det er det man skal teste. Det at man ikke merker forskjell ved 1440p oppløsning mellom de ulike CPU'ene betyr jo bare at skjermkortet er flaskehalsen. Så klarer man å bevise ytelsesforskjell ved 1080p, så er ikke det så irrelevant som du ønsker å ha det til.

 

Jo, det er irrelevant så lenge du ikke tar i bruk den innstillingen med de spesifikasjonene vi snakker om. Testen er allerede utrolig begrenset i at den bare tar for seg de mest CPU-intensive spillene i industrien.

 

Argumentet ditt kan vel best beskrives, slik jeg ser (og tror det), med at der flaskehalsen kanskje er i 1080p i dag, kan den være det samme i 1440p om noen år. Men noe slikt kan lite enkelt skytes ned med motargumentet om at om noen år så vil 4K være i den samme posisjonen som 1440p er i, i dag, og "nulle ut" en slik eventualitet.

 

Gabri3l: siden du sier det blir ditt siste innlegg skal jeg prøve å etterlate alle tingene jeg ønsker å fokusere på noen av hovedpunktene, og gi et så behersket/verdig svar som overhode mulig.

 

Testen i TH er interessant. Men man må ta den for hva den er. Det er rett og slett en test som viser 6600K vs 6320 (-HT) mot Broadwell-E (-HT) på relativt lave frekvenser. Så å snakke om at å teste GTX1080 i 1080p er "kunstig" selv om jeg er helt enig. Så er selve premisset for testen like kunstig i utgangspunktet.

 

3,9 GHz er ikke nødvendigvis lavt for Broadwell-E. Husk at Skylake overklokkes til 4,6-4,7 GHz på luft på gjennomsnittsystemet, mens gjennomsnittsbrikken for Broadwell-E har en øvrig grense på 4,1-4,3 GHz, i følge Anandtech og hovedkortprodusentene. 3,9 GHz er derfor mye mindre kunstig enn du tror. Og i hvert fall like "kunstig" (til fordel for Skylake) om man testet begge brikkene på 4,3 GHz, eller noen som helst test der de to klokkes likt. For det er en unektelig sannhet at Skylake klokker høyere enn Broadwell-E. Om en ukes tid kommer Kaby Lake ut, og alle tidlige kilder rapporterer en klokkehastighet på ~4,9-5 GHz. Så her øker forspranget ytterligere til ~15-20% høyere frekvens.

 

Du har selvfølgelig helt rett angående HT, og jeg finner det rimelig irriterende at TH ikke tok seg bryet til å også inkludere HT-tallene (for å vise oss der HT feiler/hjelper i spill), annet enn i den dårligste 2-kjerners prosessoren -- der HT, naturlig nok, kommer til sin rette. 

 

Når det gjelder påstanden om at X99 er bedre for GTX1080 SLI så ville jeg ikke trodd det var kontroversielt lenger. Det er det for lenge siden vist at ett GTX1080 blir holdt tilbake av å kun få 8 PCIe3.0 linjer i enkelte spill (Til og med 980Ti kan trenge mer enn x8). Du vil kunne finne spill der det ikke er tilfellet, men når man ser de første spillene komme der det ikke er tilfellet. Så er det lite vits i mine øyne i å holde fast på gamle tester.

 

Jeg har valgt å undersøke alle de andre tilgjengelige testene om dette emnet.

 

1. Puget Systems; der viser testresultatene store variasjoner mellom x8 og x16 på samme prosessor/plattform, der de både mister og får ytelse i forskjellige tilfeller og til og med i forskjellige oppløsninger. Men det er nok i favør x16 at PS mener x16 er det beste å gå for, når du kjører kort i SLI/CF. Om vi skal se på gaming alene, så har PS dessverre bare testet to spill. Men fra de to spillene kan vi konkludere (jeg inkluderer ikke 1080p-resultatene, der x8 kommer bedre ut enn i 4K, da det er en absurd innstilling når du kjører to stk. GTX 1080er) at x8 er 2,5% tregere enn x16 i AotS og 9,5% tregere enn GRID. Så her har du rett.

 

2, LinusTechTips: LTT er ikke på langt nær så autorativ som PS, men god nok til å undersøke, spesielt mtp. at LTT' test fokuserer på en god del flere spilltitler og flere prosessorer. I følge LTT er x16 og x8 likeverdige med to kort i SLI/CF. 

 

Disse to er dessverre "bredden" av referanser som vi har for å determinere hvorvidt x16 er så mye bedre enn x8. Selv om jeg skal gi deg denne (dvs. utelukke LTT, spesielt mtp. at PS har to stk. 1080er, mens LTT har 980er), vil jeg uansett si at antallet tester, og ikke det mangelfulle innholdet i begge av dem, er altfor snevert for å kunne konkludere noe som helst. 

 

Videre vil ikke x8 vs. x16 gi det fulle svaret på det faktiske spørsmålet: hvorvidt et X99-system i SLI er bedre enn et Z170-system med to kort i SLI. Og grunnen til det kan ganske enkelt besvares med at i de tilfeller vi har funnet forskjeller i FPS mellom x16 og x8, så vil overlegenheten i 6600K/6700K over Haswell-/Broadwell-E 1440p/4K -- som jeg tror det nå ikke er vits å diskutere lenger -- jevne dette ut. For å ikke snakke om overklokkingsfaktoren for Skylake (og kommende Kaby Lake), som vil skyve fordelen lenger vekk fra X99-systemet.

 

Det blir uansett for mye "men" og "om" og "hvis", og er ikke noe som en kan si med noen form for sikkerhet, uten faktiske tall å vise til. Men det, det viser derimot, er at påstanden "X99>Z170 i SLI" slettes ikke er riktig eller testet grundig nok for å kunne bestemmes, og at din uttalelse om at du trodde det ikke "var kontroversielt lenger", er usant.

 

Og fra konklusjonen i den testen:"Core i7-6800K seems like a solid option for gamers looking to build on X99 as affordably as possible, particularly if you only intend to run one or two graphics cards. Given Core i7-6700K’s more advanced architecture, higher clock rate, lower price and more flexible Z170 PCH, the quad-core route is a more cost-effective solution. But we did see a couple of situations where modern titles do benefit from six, eight or ten cores."

 

Dette avsnittet (og den markerte setningen) refererer til testresultater der seks, åtte og ti kjerner (uten HT, vel å merke) gjorde det bedre. Det er da viktig å se på de faktiske resultatene for å se hva setningen refererer til.
 
Jeg har derfor tatt en titt på alle tester der seks, åtte og ti kjerner gjorde det bedre enn fire kjerner, og der de ikke gjør det. Dette vil også gi en enda bedre forståelse for problemstillingen om forholdet mellom gjennomsnittlig/laveste FPS, som du tok opp.
 
For enkelthets skyld har jeg valgt å kalle 6700K med HT/off for 6600K, og i tillegg avskrevet forskjeller opp til 0,5%, og skrevet "likt" i stedet (dette har jeg også gjort med bakgrunn i at det har gått like mye til fordel for 6600K som de andre brikkene). Jeg vektlegger også laveste FPS og gjennomsnittlig FPS som likverdige. Om du vil ha et enda nøyaktigere bilde på dette, kan du se på grafene til de individuelle stikkprøvene, for å se på variasjon av FPS mellom de ulike prosessorene.
 
1440p:
 

AoS 1440p: 6600K er 4% tregere enn 6850K og 7,5% tregere enn 6900K. 6600K er nest-best, sammen med 6900K, i laveste FPS.

 

BF4 1440P: 6900K yter likt som 6600K og er 0,5% raskere enn 6850X og 6850K. Laveste FPS er lik for alle.

 

GTA 5 1440p: 6600K er 1% raskere enn 6850K, men 1,5% tregere enn 6900K og 6950X. 6600K har, sammen med 6900K, beste laveste FPS.

 

Metro: Last Light Redux 1440p: 6600K er 1% raskere enn 6900K, 6950X og 6850K og har beste laveste FPS; 1,5% bedre enn 6950X og 6950X, 5% bedre enn 6850K

 

Shadow of Mordor 1440p: 6600K er 1% raskere enn 6950X, 6900K og 6850K, og har like god laveste FPS.

 

RotTR 1440p: Alle CPUene yter i gjennomsnitt likt. 6600K har, sammen med de andre CPUene, 3% dårligere laveste FPS enn 6850K.

 

Project Cars 1440p: 6600K er 3% tregere enn 6950X og 2% tregere enn 6900K, mens den er 1,5% raskere enn 6850K. Laveste FPS er like mye dårligere/bedre på de samme punktene.

 
The Division 1440p: 6600K er 1,5% raskere enn 6850K, 2% raskere enn 6900K og 2,5% raskere enn 6950X. Laveste FPS er 2,5% mer enn 6850K, men 13% og henholdsvis 23% mer enn de to andre prosessorene.  
 

The Witcher 3 1440p: 6600K er 1,5% raskere enn 6950X, 2,5% raskere enn 6900K og 3,5% raskere enn 6850K. Når det kommer til laveste FPS er 6600K 1,5% bedre enn 6950X og 6900K, mens den er 3% bedre enn 6850K

 

Observasjon: For å hindre en såkalt "urettferdig forskyvning" ved å legge sammen alle tallene, da de høye tallene i The Division til fordel for 6600Ken vil ha mer å si for sammenligningen enn tre-fire andre spill sammenlagt, velger jeg å anse hvert spill like viktig som det andre. Dette er som sagt mer til fordel for Broadwell-E, men vil uansett fungere som bekreftelse på at jeg foretar en så "objektiv" sammenligning som mulig, og skyver eventuelle "feilkilder" i retning Broadwell-E. 

 

Resultat : Så hva viser resultatene? I 9 spill er 6600K best/like god på 7 av dem i gjennomsnittlig FPS og best/like god i 6 av dem. Altså best gjennomsnittlig FPS i 78% av tilfellene og laveste FPS i 67% av tilfellene. 

 

Det er også viktig å bemerke at

 

  • Tilfellene der 6600K gjør det dårligere i gjennomsnittlig FPS er AoS og Project Cars. Men i Project Cars er 6600K raskere enn 6850K.

 

  • Tilfellene der 6600K gjør det dårligere i laveste FPS er AoS, GTA 5, RoTR og Project Cars. Men i AoS er 6600K lik med 6900K, og det samme er tilfellet i GTA 5. I RoTR har 6600K lik FPS som 6850X og 6900K. I Project Cars har 6600K raskere FPS enn 6850K.

Konklusjon: I 1440p har 6600K en klar ledelse i gjennomsnittlig FPS og en mindre, men fortsatt tydelig, ledelse i laveste FPS. OG i de tilfeller der 6600K ikke er "best", er den likevel like god eller bedre enn en eller flere andre Broadwell-E. De betyr altså at for de som spiller i 1440p, er fire kjerner uten tvil det beste alternativet. Den vil ikke bare i de fleste tilfeller gi deg best gjennomsnittlig FPS og beste laveste FPS, men er også langt billigere.

 

1080p:

 

Dette er også en relevant ting å ta til betraktning, da jeg fikk bekreftelse fra noen (tror jeg?) at de faktisk har Intel Core-E og GTX 1080, og faktisk spiller i 1080p. Så dette gjelder altså for disse menneskene.

 

OBS: jeg er dessverre altfor trøtt til å ta en skikkelig gjennomgang av resultatene, men vil gjør det om du skulle ønske det.

 

Observasjon: en viktig observasjon er at i de tilfellene der 6600K taper i gjennomsnittlig og laveste FPS, så er forskjellen vesentlig (prosentmessig) høyere enn det vi så i 1440p. Derfor vil jeg forandre kriteriene fra 1440p-observasjonen om at en gjennomsnittstall fra alle prosenttallene ikke gjelder, til at det faktisk gjelder her. Dette fordi det i denne omgangen vil tjene Broadwell-E veldig godt, og det derfor er bedre å skyve fram til fordel for dem enn mot dem.

 

Resultater: Jeg har enn så lenge fått sett at i gjennomsnittlig FPS er 6600K best/like god i 5 (BF4, The Divsion, Shadow of Mordor, RoTR og The Witcher 3) av 9 tilfeller. Dvs. 55%.

 

I laveste FPS er 6600K best/like god i 4 (BF4, Metro: Last Light, Shadow of Mordor og The Witcher 3) av 9 tilfeller. Dvs. 44%.
 
Konklusjon: Allerede her kan man konkludere at selv om 6600K gir resultater som viser at den er ca. like mye bedre som den er dårligere i gjennomsnittlig og laveste FPS, så er den ikke et like opplagt valg lenger. Prismessig er den helt klart det, men om man inkluderer forskjellene i FPS der 6600K "taper", er de vesentlige. Så i 1080p, vil nok en 6700K eller Broadwell-E være et bedre valg.
 
Godt nyttår til deg og alle andre og!
Endret av La Menthe
  • Liker 2
Lenke til kommentar

Wow! Til å være en amatørtest, var den overraskende profesjonell i form av jevnbyrdige testsystemer, en fin mengde testede titler og godt representerte tall. Takk for bidraget, Christian.

 

Det er blitt gjort 8 spilltester (7 spill), og for 6700K på Z170-plattformen ser vi dette:
 
Far Cry Primal: gjennomsnittlig FPS er 17,5% bedre, mens laveste FPS er 19,5% bedre enn 5960X på X99.
 
GTA V: gjennomsnittlig FPS er 2,5% bedre, mens laveste FPS er 44% bedre enn 5960X på X99.

 

Metro: Last Light: gjennomsnittlig FPS er 2% bedre, mens laveste FPS er 21% bedre enn 5960X på X99.

 

Shadow of Mordor: gjennomsnittlig FPS er 3,5% verre, mens laveste FPS er 1,5% bedre enn 5960X på X99.

 

RoTR DX11: gjennomsnittlig FPS er 1,5% bedre, mens laveste FPS er 12% bedre enn 5960X på X99.

 

RoTR DX12: gjennomsnittlig FPS er 3% dårligere, mens laveste FPS er 29% dårligere enn 5960X på X99.

 
The Division: gjennomsnittlig FPS er 8% bedre enn 5960X på X99. Laveste FPS er ikke oppgitt.

 

AotS: gjennomsnittlig FPS er 1% dårligere enn 5960X på X99. Laveste FPS er ikke oppgitt.

 

Her kommer 6700K på Z170-plattformen ut som den opplagte vinneren. Om vi ser bort fra de to vanvittig høye forskjellene på 44% og 29%, ser vi at 6700K over hele linja har et vesentlig forsprang. Deler av dette kan forklares med at 6700Ken er en bedre gaming-prosessor enn 5960X. Men om vi ser bort i fra denne faktoren, som utgjør ~5% (eventuelt mer mtp. klokkehastigheter), kan ikke den resterende ytelsesforskjellen forklares på bakgrunn av dette.

 

Vil også nevne tre feilkilder:

 

1. Brukeren tar i bruk en PLX-brikke for å oppnå alle 16 baner på den andre GPUen og på Z170-brikkesettet (selv om muligheten for dette alltid er der for de som vil kjøpe det). Men dette kan også argumenteres den andre veien, ved at slike PLX-brikker har latency-problemer og vil/kan ha en negativ effekt i et slikt SLI-system.

 

2. Brukeren har overklokket 6700K til 4,8 GHz mot 5960X på 4,6 GHz. En mulig rettferdiggjørelse for dette er dog at om man først skal overklokke begge systemene, så får man 6700Kene til høyere frekvenser enn 5960X. 

 

3. Fortsatt en "amatøranmeldelse", og antallet anmeldelser for det vi diskuterer er enda altfor liten, og resultatene i testene altfor varierende, til å komme med noen ordentlig konklusjon. Men det kan ikke understrekes nok at på grunn av de to forskjellige plattformene som testes, GPUene (GTX 1080) og ikke minst antallet spill, blir spesielt denne testen, rent innholdsmessig, overlegen de to andre som jeg viste til i mitt forrige innlegg. Og ikke minst mer relevant!

Endret av La Menthe
Lenke til kommentar

Klarer ikke å bestemme meg for i5 eller i7. Maskinen skal bli brukt til gaming, skjermkortet blir et 1070.

 

Ser at folk sier at man bare kan kjøpe i5, noen benchmarks viser ikke forskjell, men noen viser et betydelig sprik. Tviler på at det er verdt en tusenlapp i mellomlegg.

 

Kan heller ikke update hovedkort til skylake, da må jeg ha en cpu installert fra før. :-(

Lenke til kommentar

Klarer ikke å bestemme meg for i5 eller i7. Maskinen skal bli brukt til gaming, skjermkortet blir et 1070.

 

Ser at folk sier at man bare kan kjøpe i5, noen benchmarks viser ikke forskjell, men noen viser et betydelig sprik. Tviler på at det er verdt en tusenlapp i mellomlegg.

 

Kan heller ikke update hovedkort til skylake, da må jeg ha en cpu installert fra før. :-(

 

Det hjelper oss veldig hvis du forteller hva du har av hardware fra før, og hvor mye penger du kan bruke.

 

Du får jo mer for pengene ved å velge en i5 vs i7. Det kommer også an på om du skal overklokke eller ikke.

Lenke til kommentar

-snip-

 

Vi får ta dette med "Min fps" en gang til da. Det virker ikke som du har fått med deg poenget enda. La oss si du for eksempel starter et spill for å kjøre benchmarken i spillet, og legger merke til at akkurat i det benchmarken starter. Så fryser bildet litt, og FRAPS (eller tilsvarende) registrerer dette som en "min fps" på 30fps. Men når du overvåker fps'en gjennom hele resten av spillets benchmark, så ser du at fps aldri igjen ramler under 60fps. "Min fps" blir da fremstilt som 30fps. Selv om sannheten er at det kun var en enkelt frame av kanskje 25 000 frames gjennom hele benchmarken som av en eller annen grunn (gjerne programvarefeil i selve benchmarken) frøs i 33ms. Om vi får 100fps i avg. Så vet vi at en gang i løpet av litt over 4 minutter fikk vi en frame på 33ms, men vi vet ikke om vi de neste 4 minuttene, eller 2 timene vil få en til. Og vi har egentlig ingen grunn til å forvente noe den ene veien eller den andre.

 

Hos GamersNexus ville denne ene 33ms'ers framen "druknet" i gjennomsnittet av de resterende 24 tregeste framene som gjerne da ligger på rundt 17ms. Regnestykket blir så å legge sammen alle disse ms'ene og dele på 25 (0,1% av de totalt 25 000 frame'ene). Eller for enkelthets skyld i dette eksempelet: (~17ms x 24) + 33ms = 441ms. Man deler så disse 441ms'ene på disse 25 tregeste frame'ene og sitter igjen med 17,64ms i gjennomsnitt for disse 25 framene. GamersNexus ville presentert dette gjennomsnittstallet som at 0,1% av de tregeste framene tilsvarer 56,7fps (altså om man hadde fått 56,7 slike frames etter hverandre). Men dette tallet kan da altså faktisk benyttes til noe..

 

De ville så gjort det samme for de resterende 225 tregeste frame'ene og presentert gjennomsnittlig frametime for disse til sammen 250 frame'ene som den fps man ville fått om man ser kun på de 1% tregeste frame'ene.

 

Nå, om en benchmark eller et spill fryser i 33ms akkurat i det det starter, men så aldri har en frame under ~17ms igjen. Så tør jeg påstå at den ene frame'en på 33ms er fullstendig ubrukelig til å fortelle oss noenting som helst om hvordan test oppsettet taklet dette spillet eller benchmarken. Dette bør være svært lite kontroversielt.

 

Men det ser ut som det er akkurat det fyren i posten din har gjort. Han har tatt den ene tregeste frame'en gjennom hvert av spillene og presentert som "min fps". Noe som er en litt grov nybegynnerfeil. Men kanskje ikke så grov som ditt forsøk nå på å koke suppe på den...

 

Så jeg gjentar det en siste gang: Når man presenterer den ene bokstavelig talt tregeste eller raskeste frame'en man registrerte som henholdsvis "min fps" og "max fps". Så forteller man svært lite om systemets ytelse..

 

Du forsøker nå å fremstille det som at jeg kun mener dette når det passer meg. Mens sannheten er at når jeg henviste til den videoen med 5960X vs 6700K så snakket jeg om å ønske best ytelse i de tyngste partiene, i stedet for de letteste. Og at det måtte observeres hvor. Jeg snakket altså ikke om hverken 0,1% eller 1% selv om jeg misstenker at disse også vil være høyere. Men ihvertfall ikke den ene tregeste frame'en. At 5960X "vant" i "min fps" i 2 av spillene er tilfeldig. Og ikke noe jeg har lagt vekt på ettersom jeg ikke visste om dette var en enkelt frame eller 0,1% eller 1%. Jeg har sett en video som illustrerer poenget mitt bedre enn denne videoen, men fant den altså dessverre ikke i farta, og dermed ble det denne. Noe som er litt synd siden den var egnet til å missforstås om man ønsker..

 

At du nå prøver å bruke "real world scenarios" mot meg faller på sin egen urimelighet. Det er vel knapt 5 poster siden jeg sa meg enig med deg på dette punktet. Men det kan være greit å ha i bakhodet at dette gjelder de aller fleste testene i dag. Selv et 1050Ti blir gjerne parret med en "blodklokket" 6700K for å "sikre at CPU ikke er flaskehalsen". Igjen sitter man med resultater som sier nada om hvordan skjermkortet kommer til å yte i "real world" når det dukker opp under juletreet til en fjortiss med i3 2300 i maskinen. Ellers kan man forøvrig spørre seg hvor "real world" det er med 6700K+PLX+1080SLI. Kjenner du mange her på forumet som har det for eksempel? Eller har de X99 "alle" sammen som har 1080SLI?

 

Jeg sier 6700K systemet vant i average fps i 2 av 6 spill fordi jeg ikke regnet RoTR 2 ganger siden DX11 resultatene var mye dårligere. Jeg mener det blir unødvendig å presentere det som 2 av 7 spill når 2 av spillene er det samme, bare en gang i DX11 og en gang i DX12. Jeg prøvde altså å forklare hvorfor jeg sier 2 av 6 i stedet for 2 av 7. På ett eller annet merkelig vis klarer du å vri dette til at jeg påstår at det med X99 er "dødt løp" i alle DX12 spill?! I AoTS syntes jeg resultatene som presenteres blir litt intetsigende og unnlot derfor også å ta dem med i min vurdering. Såvidt jeg kunne se var avg. fps uansett nokså lik. Selv om 5960X vinner CPU testen og man ser større prosent andel "bound" på CPU for 6700K på GPU testene. Som sagt; litt intetsigende. Så jeg holdt meg til de 6 andre spillene som ble testet, og da kun avg. fps.

 

Nå, hva som blir testet er det innmaten i testsystemene som bestemmer. Ikke hva du skulle ønske de testet. Altså må man ta med i beregningen at det er et Z170 hovedkort med PLX chip som testes mot et nå litt aldrende X99 system. Bevares, det er Z170 også, men det er liten grunn til å anta at et vanlig Z170 hovedkort uten PLX chip vil gi de samme resultatene. Altså er det PLX mot X99 som testes for å se om man kan komme seg forbi båndbredde problematikken med bare 16 PCIe3.0 linjer på 6700K. Jeg må innrømme jeg synes det er litt morsomt du på død og liv skal sammenlikne mot 5960X, men samtidig vil bytte hovedkort til et billigere for 6700K. Alt jeg sier er at det er litt rart å skulle sammenlikne med en mye dyrere eldre 5960X når det har kommet Broadwell-E med høyere IPC og lavere pris i 6 kjerners utførelse som det vil være mer naturlig å sammenlikne 6700K mot om man skulle handlet i dag. Men da går du i spader? 

 

Videre vil jeg si det kunne vært interessant å se en 7700K med en greit oppnåelig OC med PLX mot en 6850K med tilsvarende greit oppnåelig OC. Men som jeg også sa, så mener jeg at man må se på frametimes for å sikre at latency'en som introduseres med PLX chip'en ikke ødelegger opplevelsen. Om 7700K vinner i avg. fps, mens frametimes avslører at "smoothness" er gått i søpla. Vel, det ville vært en svært hul "seier"..

 

Og når det gjelder mitt eksempel på hvordan man kan få raskere aksesstid og høyere minnebåndbredde med X99 enn med Z170. Så jo, inntil du har klart å finne et kit til Z170 som vil gi raskere aksesstid, så står det jo uimotsagt. Hvilken innvirkning den raskere aksesstiden ville hatt blir riktignok ren spekulasjon. Men det har jeg ikke gjort. Jeg har kun påpekt at dette er en mulighet man har med X99 som man altså ikke har med Z170. Hvor kontroversielt er det egentlig?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...