Gå til innhold

Skylake I7-6700K, I5-6600K-tråden


Anbefalte innlegg

 

GTX1080SLI testen til TPU er en grei plass å kikke. I Fallout 4 kommer det ganske tydelig frem at selv en 6700K på 4,5GHz er flaskehalsen i 1440p. At Strix versjonen kun klarer 0,5fps mer skal jo ikke stemme. Andre titler viser også liknende tendenser.

 

Hvordan sier den testen noe som helst, når det ikke er noen andre CPUer som testes? Ikke at diskusjonen gjaldt SLI til å begynne med, engang...

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

 

 

GTX1080SLI testen til TPU er en grei plass å kikke. I Fallout 4 kommer det ganske tydelig frem at selv en 6700K på 4,5GHz er flaskehalsen i 1440p. At Strix versjonen kun klarer 0,5fps mer skal jo ikke stemme. Andre titler viser også liknende tendenser.

 

Hvordan sier den testen noe som helst, når det ikke er noen andre CPUer som testes? Ikke at diskusjonen gjaldt SLI til å begynne med, engang...

 

 

Den spesifikke testen viser at med en 6700K på 4,5GHz og 3000MHz RAM. Uansett hva slags skjermkort konfigurasjon du har, selv helt opp i GTX1080SLI. Vil det ikke få deg over 120fps i dette spillet.

 

Hvis det ikke var CPU og/eller RAM som var bremsen her, så ville fps økt fra 1080p til 900p. Ikke sant?

 

Se så på 4K resultatene. Der ser vi at Strix'en er 8,15% raskere enn FE. Men i 1440p er ytelsen identisk. Et overklokket GTX1080 yter altså ikke bedre enn et FE i 1440p, men gjør det i 4K. Hva forteller det oss, om ikke nettopp at det ikke er GPU som er flaskehalsen?

 

SLI resultatene synes jeg er interessante fordi de varierer med kun 5,6% fra laveste fps i 4K, til høyeste fps som oppnåes uavhengig av oppløsning i 1440p, der GTX1080Strix i SLI altså blir slått av selv ett enkelt FE. Man skulle jo da lett kunne trekke konklusjonen at SLI er ødelagt i Fallout 4. Men faktum er at i 4K så får man 42% høyere fps med SLI. Og igjen når man ser på fps i de andre oppløsningene så varierer de altså bare fra 111 til 113,3fps. Eller 2,07%. Samtidig som 4K resultatet forteller oss at SLI fungerer. Hva er det da som hindrer skalering nedover i oppløsningene?

 

Det er klart disse resultatene kunne kanskje sett annerledes ut med raskere RAM. Det er ikke sikkert at det er 6700K'en sin skyld i det hele tatt sånn sett. Men dette oppsettet var altså når de begynte med det, tenkt at det ikke skulle være flaskehals for noen skjermkort. Og nå ser vi at det ikke stemmer lenger..

 

Du mente overfor Christian at det var en "veldig, veldig kontroversiell" påstand at et stock klokket 6700K kunne være en flaskehals for et overklokket GTX1080 i 1440p. Linken min viser at det ikke er en kontroversiell påstand selv med en overklokket 6700K. Ihvertfall i dette spillet. Og som jeg sa, mener jeg tendensene er tydelige også i andre spill.

Lenke til kommentar

Den spesifikke testen viser at med en 6700K på 4,5GHz og 3000MHz RAM. Uansett hva slags skjermkort konfigurasjon du har, selv helt opp i GTX1080SLI. Vil det ikke få deg over 120fps i dette spillet.

 

Tester TPU spillet med noen annen CPU? Nei. Kan vi derfor stadfeste at feilen skyldes 6700K eller noen av dets egenskaper? Nei. Har vi tester der ute av Fallout 4 som inkluderer flere CPUer som gjør dette? Ja (mer om dette lenger nede). Jeg har derfor verken tid eller interesse for å hoppe inn i din spekulative diskusjon om hva denne flaskehalsen kan være. Enten baserer vi, to voksne, rasjonelle mennesker på dette forumet, oss på harde fakta som eksisterer der ute, eller så lar vi være å si noe.

Det er klart disse resultatene kunne kanskje sett annerledes ut med raskere RAM. Det er ikke sikkert at det er 6700K'en sin skyld i det hele tatt sånn sett. Men dette oppsettet var altså når de begynte med det, tenkt at det ikke skulle være flaskehals for noen skjermkort. Og nå ser vi at det ikke stemmer lenger..

 

Fantastisk stråmann. "Hvis det ikke er CPU", et argument som du har ingen belegg for å si, ganske enkelt fordi du har ingen sammenligningsgrunnlag, "så må det være RAM". Drit i det faktum at vi har hatt verken minne- eller CPU-tester å sammenligne med (selv om Eurogamer selvsagt har funnet noe -- om du kan kalle det, det -- som kan støtte oppunder dine minnepåstander, har jeg måttet komme over denne kilden selv).

Du mente overfor Christian at det var en "veldig, veldig kontroversiell" påstand at et stock klokket 6700K kunne være en flaskehals for et overklokket GTX 1080 i 1440p. Linken min viser at det ikke er en kontroversiell påstand selv med en overklokket 6700K.

 

Det beviser faktisk INGENTING. Jeg kommer til å vise samtlige tester av Fallout 4 over flere CPUer, som du glemte å nevne var en forferdelig dårlig optimalisert spill -- noe enhver person med et snev av kjennskap til spillet eller Bethesda vet. Selv i dag bombarderes internettet av kommentarer om hvordan deres oppsett til titusener ikke får kjørt Skyrim ordentlig. Fallout 4 har hatt sine kontrovers om ytelse, det og. Det er faktisk så dårlig at spillet er blitt utelukket som et benchmarkspill, da det produserer altfor vilkårlige tall til å gi en korrekt representasjon av noe som helst (eller tall som ikke kan representeres riktig, da du har kontinuerlig 50 FPS på ett område i spillet og plutselig 80 FPS et annet). Spillet er også låst til 60 FPS av utviklerne, og kan bare brukes til testing hvis det gjøres en endring av konfigurasjonfilen Fallout4Prefs.ini hver eneste gang man starter det på nytt. En endring som igjen fører til at spillet ofte crasher.

 

Men nok om det. La oss gå til testene. Et kvikt Google-søk på "Fallout 4 CPU benchmark" fanger opp mange, relevante tester. La oss først starte med favorittkilden din.

 

Gamernexus: http://www.gamersnexus.net/game-bench/2182-fallout-4-cpu-benchmark-huge-performance-difference

 

Der testes spillet med et GTX 980 Ti Hybrid med en lang rekke CPUer, deriblant i5 6600K (4c/8t), i7 4790K (4c/8t) og i7 5930K (6c/12t). Se på tallene i 1080p. Se så på tallene i 1440p. Merker du noe spesielt? De er nesten jevnbyrdige. Gjennomsnittlige FPS for 5930K er 89 og laveste FPS er 59 i 1080p. I 1440p er gjennomsnittlige FPS 83 og laveste FPS 59. Selv ved å legge sammen alle de tre tallene i tabellen og finne gjennomsnittet (som er det mest riktige for å regne ut den faktiske ytelsen/opplevelsen i spillet), endrer 5930K knapt seg.

 

PCGamer: http://www.pcgamer.com/fallout-4-graphics-revisited-patch-13/

 

Her ser man andre tendenser (og PCGamer er selvfølgelig så fantastisk seriøse at de tester Haswell-E mot en i3-prosessor), men igjen er skaleringen og fallet det samme for en CPU som en annen i de forskjellige oppløsningene de testes i (det blir en underdrivelse fra min side, da i3en i realiteten tar igjen 5930K jo høyere oppløsningen blir, og yter faktisk bedre i 4K).

 

PCgamergardware: http://www.pcgameshardware.de/Fallout-4-Spiel-18293/Specials/Test-Benchmark-vor-Release-1177284/

 

Ingen test mellom flere CPUer, dessverre. Men legg merke til at de slår av og på kjerner på 5820K i Fallout 4 i 1280x720. Selv i denne lave oppløsningen er forskjellen mellom 6c/12t og 4c/8t ikke-eksisterende. Eller, den er på ca. ~2%! Woho!!

 

Techbuyersguru: http://techbuyersguru.com/intels-core-i5-6600k-vs-i7-6700k-vs-i7-6900k-games?page=2

 

Her testes forøvrig Skylake opp mot Broadwell-E på samme klokkehastighet (som igjen er urealistisk, da Skylake kan klokkes høyere, for å ikke nevne Kaby Lake) over mange spill i 1440p, deriblant Fallout 4. Laveste FPS kan du se bort fra, da de ikke følger testmetodikken du og jeg har blitt enige om.

 

Resultatene, spesielt fra 6600Ken, går også en lang vei i å underbygge mine påstander om hvordan 4c/4t duger i spill.

 

For å konkludere det hele, kan jeg å hente inn sitatet fra Gamernexus, i deres test av spillet:

 

Bethesda's favor expressed toward its now-Frankenstein-like Creation Engine is showing its points of wear, and we're of the opinion that Fallout 4 deserved an engine rework or licensed engine to avoid its many PC issues...The game doesn't perform too well on GPUs, as we've already shown amply, and it's presenting a bigger performance disparity than we hypothesized across the same-gen i3-i5-i7 lineup.

 

It's nice to see an i7-4790K get utilized by games, but that utilization doesn't feel like it's for the “right” reasons here – Fallout 4 greedily eats resources and doesn't have much tact in that consumption.

 

In conclusion:

 

1. Fallout 4 kan ikke brukes som eksempel for hvorvidt en CPU, GPU eller annet er bedre enn en annen, da produserer så mange rare resultater over alle typer maskinvare, på grunn av en gammel spillmotor. Selv resultatet fra de ulike nettstedene er vanvittig varierte.

 

2. De opplagte hullene/feilkildene dine, som det at TPU ikke testet Fallout 4 over flere CPUer, kommer tydelig frem.

 

3. HW-E/BW-E skalerer like bra over forskjellige oppløsninger i Fallout 4 og andre spill som andre CPUer. Men der HW-E/BW-E er bedre ved lavere oppløsninger, er de andre prosessorene mer og mer jevnbyrdige ved 1440p eller høyere oppløsninger.

 

4. Christians påstand er kontroversiell. Men jeg skal selv moderere meg litt, da jeg mener jeg en i7 4c/8t er det bedre valget av CPU. Selv jeg merket forskjeller, dog veldig, veldig små, mellom 6700K og 6600K (jeg valgte da å ta hensyn til forskjellen i klokkehastigheter). Men ikke før Ryzen er ute og vi får sett prisene der, i tillegg til eventuelle priskutt for KL. Jeg vil aldri anbefale noen å kjøpe 7700K, så lenge den koster opp mot 4000,-. Aldri.

 

5. 4c/4t og 4c/8t er bedre kjøp enn 6c/12t og 8c/16t uansett hvordan man vender og vrir på det. Selv om vi ignorerer det 95% av tester der ute beviser om ytelsen på færre kjerner med bedre arkitektur. Selv om vi ignorerer at KL har hele 700 MHz høyere klokkehastighet enn BW-E, og bittelitt bedre IPC. Og selv om vi antok at BW-E ga bedre ytelse, kommer det til syvende og sist ned til pris. 6800K er greit nok. Men i de argumenter der folk finner for eks. en 6900K som yter 5-10% bedre, må jeg nesten spørre: rettferdiggjør dette et CPU-kjøp til 11,000,-? Vi diskuterer ofte forskjeller i ytelse mellom CPUer som tilsvarer forskjellene mellom ulike modeller av samme skjermkort.

 

Ja, jeg kan se betydningen av kjøpet av 6800K i forhold til KL med dagens priser nå (dette kommer nesten garantert til å endre seg med Ryzen). Men da er vi igjen tilbake til alle faktorene jeg ignorerte. Og jeg tviler sterkt på om 6800K med bedre minnemoduler vil ha større effekt over KL med bedre IPC + 700 MHz høyere frekvens og til litt billigere pris. Men igjen, dette er bare spekulative påstander. Noe jeg hater verre en pesten.

Og som jeg sa, mener jeg tendensene er tydelige også i andre spill.

 

Vis oss gjerne andre tester. Med det mener jeg andre tester der man har ordentlige sammenligninger mellom de ulike prosessorene. Jeg håper på og forventer bedre standarder enn TPU-linken din, og den snevre konklusjonen du trakk fra det. Skylake/Kaby Lake vs. HW-E/BW-E hadde vært fint. Gjerne med klokkehastigheter som er realistiske for begge oppsett (dvs. KL på 5 GHz mot BW-E på 4,3 GHz).

 

Noe sier meg at for hver test du finner for å underbygge din påstand, kan jeg finne 10 andre som motsier det. Da bunner det hele ned til hvorvidt man vil basere seg på hva den overveldende antall av (seriøse) tester viser, eller hva anekdotene viser til

 

Jeg ønsker ikke å fortsette diskusjonen, med mindre vi kan få satt den ut i en annen tråd (som jeg håper moderator kan hjelpe oss med).

Endret av La Menthe
  • Liker 2
Lenke til kommentar

*snip*

Snart på tide du kommer med egene tester, siden ingen tester er riktige før du mener de er riktige. Uansett hva som kommer av resultater, så er det noe feil med dem i følge deg. 

 

Jeg stoler ikkje på noen tester før jeg tester det selv. Du burde gjøre det du også ;)

Endret av Nizzen
  • Liker 4
Lenke til kommentar

 

*snip*

Snart på tide du kommer med egene tester, siden ingen tester er riktige før du mener de er riktige. Uansett hva som kommer av resultater, så er det noe feil med dem i følge deg.
Like snart som edruelige argumenter som er lengre enn to setninger? Eller er dette nok en kvikk innblanding som du like kjapt stikker fra? Gabri3L brukte en test som omfattet en CPU i Fallout 4 for å konkludere at tap av ytelse over oppløsninger skyldtes den bestemte CPUen. Han sammenlignet ikke mot ytelsen (og eventuelle tap av de) i samme situasjon eller noe annet. Jeg skjønner hvordan det er enkelt for deg med din 6900K å bevisst gjøre deg selv blåøyd og akseptere dette lavmålet av en argumentasjon. Det er ikke akkurat første gang. Kildekritikk og empirisk avhandling Diskusjon.no's entusiaster verdig...

 

Jeg tok derimot bryet til å skrive en vegg av tekst (som alltid) for å inkludere så mye relevante fakta som overhode mulig, og gjøre mitt beste på å vise hvorfor han tok feil. Jeg viste til tester med flere CPUer i det spillet og viste hvordan ytelse, variasjon og annet er like eksisterende over alle typer CPUer -- ikke 6700K. Dette fra samtlige kilder. Kilder som selv gjør det uttrykkelig klart hvor dårlig det er å måle FPS i det bestemte spillet (som også tallene selv ganske konkret viser). Er det i det hele tatt mulig å be om like seriøse analyser og argumentasjoner fra den andre siden av diskusjonen og?

 

Men herregud. All denne informasjonen jeg kom med var vel bare vrøvl? La oss heller bare bruke Gabri3ls første test som nok en (anekdotisk) "bevis" på hvorfor HW-E/BW-E er så fuckings overlegen, og hvordan de 11,000,- man brukte av egen lomme for 5960X/6900K var så jævla vellykket. Det er visst ikke bare i Facebook-chatting at man føler at de ekstra kjernene kommer til sin rette! De gjør det også i Fallout 4 (bare pass på å ikke lese noen CPU-tester av Fallout 4, for å bevare placebo-effekten).

 

Det ironiske med alt dette er at jeg med min kontinuerlige søken etter tester ol. der ute vet om flere tester der HW-E/BW-E gjør det bedre enn deg. Men det skyldes også at jeg faktisk er genuint interessert i alle former for fakta om enhver ting, uansett hvort tørt og dørgende kjedelig det skulle være. Man lærer mer av å gå gjennom tester og data ute på nettet enn å flagre med e-penisen over sine spesifikasjoner og hvor gode de er, med to smilefjes per innlegg. Jeg setter tydeligvis empiriske data til en mye høyere standard enn enkelte her. Det tror jeg helt ærlig de mange forumlesere som er ute etter tips for sine nye hardware-kjøp også gjør.

Jeg stoler ikkje på noen tester før jeg tester det selv. Du burde gjøre det du også ;)

Slik som da jeg refererte til min egen test av 6700K i BF1, når Christian selv sa hva han hadde opplevd med den samme prosessoren? Hvis det gjelder Fallout 4-testen, må du ha meg beklaget. Jeg skal korrigere dette snarest mulig og øyeblikkelig bestille to stk. ASUS GTX 1080 Strix fra Komplett.no, bare så jeg kan få produsert noen tester til deg. Men jeg må også ha noe BW-E/HW-E å sammenligne med. Må vel legge ut flere titalls tusenlapper på et X99-system for å danne et sammenligningsgrunnlag....gi meg noen dager, så jeg kan svi av 30,000,- for deg! Endret av La Menthe
  • Liker 4
Lenke til kommentar

Jeg skjønner ikke hvorfor du har halt inn HEDT i denne saken. Jeg har ikke på noe tidspunkt sagt at jeg tror Fallout 4 ville gått raskere i testen jeg linket til dersom en HEDT CPU var brukt i stedet. Dette er noe DU har halt inn.

 

Din påstand var at det var kontroversielt (veldig, veldig til og med) at Christian påstod at han opplevde flere tilfeller der 6700K@stock holdt han igjen på 1440p.

 

Jeg viste deg så en link der det er nøyaktig det som skjer i et spill, selv med en overklokket 6700K. Hverken mer eller mindre.

 

Om du trenger å tro at det er noe annet enn CPU/RAM i den testen som holder Fallout 4 tilbake til nøyaktig samme hastighet i 1440p med både et GTX1080FE og GTX1080Strix. Så, velbekommen.

 

Personlig tror jeg det er RAM'en som er flaskehalsen. Men det er ikke så veldig viktig. TPU's testoppsett er litt aldrende nå, og representerer nå en konfigurasjon som mange med 6700K har (Og mange har til og med tregere RAM). Altså er det mange som vil kunne oppleve begrensninger i ytelsen ved 1440p selv med en 6700K. (Bare at det egentlig sannsynligvis er RAM'en sin skyld da..).

 

Gidder jeg tråle Internet for å hale frem tester som tilfredsstiller dine krav for å understøtte disse selvfølgelighetene?

 

Nei, nei det gjør jeg virkelig ikke...

Lenke til kommentar

Om du trenger å tro at det er noe annet enn CPU/RAM i den testen som holder Fallout 4 tilbake til nøyaktig samme hastighet i 1440p med både et GTX1080FE og GTX1080Strix. Så, velbekommen.

 

Det er ikke noe å tro. Jeg viste klart og tydelig at problemet oppsto i alle systemer og med alle maskinvarer, og at roten til det er spillmotoren. Ingenting annet. 

 

Personlig tror jeg det er RAM'en som er flaskehalsen. Men det er ikke så veldig viktig. TPU's testoppsett er litt aldrende nå, og representerer nå en konfigurasjon som mange med 6700K har (Og mange har til og med tregere RAM). Altså er det mange som vil kunne oppleve begrensninger i ytelsen ved 1440p selv med en 6700K. (Bare at det egentlig sannsynligvis er RAM'en sin skyld da..).

 

Så alt som ble skrevet og satt fram om Fallout 4, tester av det, uttalelser fra anmelderne og mer, gikk rett over hodet på deg? 

 

Gidder jeg tråle Internet for å hale frem tester som tilfredsstiller dine krav for å understøtte disse selvfølgelighetene?

 

Selvfølgelighet, ja. Hahahaha. Her klarer du jammen meg å nå et nytt bunnpunkt, må jeg si. Din "selvfølgelighet", hvis argumentasjon er underbygget av antakelser av et problem, er ingenting annet enn et dårlig optimalisert spill som kjører, i Gamernexus' egne ord, på "en utdatert spillmotor".

 

Dette er nok et eksempel på hvordan brukere her inne gjør seg villig dumme for å akseptere ren tullball som "fakta" (i dette tilfellet kalt "selvfølgelighet"). Heldigvis er skrønene aldri så spesielt sofistikerte, og dermed enkle å avkle. 

Endret av La Menthe
  • Liker 3
Lenke til kommentar

La Menthe : Du tar ikke deg selv og dette diskusjons emnet litt for seriøst kanskje...? Det er beundringsverdig å søke etter fakta, og ikke bare gå rundt å tro ting som ikke stemmer, for all del, men å investere så mye følelser i dette er litt som å stange hodet sitt i veggen.

  • Liker 5
Lenke til kommentar

Gode fakta er alltid greit å ha som grunnlag for vurderinger.

 

Jeg gidder ikke kjøpe en i7-7700K hvis jeg kan klare meg mer enn bra nok med en i5-7600K i 1440P eller 21:9 1440P i de aller fleste spill eks. Hadde jeg drevet med rendering eller andre "sære" ting hadde jeg jo spesifisert det.

 

i7-7700K er ganske fordyrende og selv om jeg har hatt X58 siden januar 2009 så har jeg ikke planer om å sitte med neste rigg i 8 år.

Endret av Theo343
Lenke til kommentar

Synes La Menthe har et godt poeng jeg. Få fakta på bordet og ikke så mye feilinformering som det er på forumet her.

 

EDIT: Å mene at i7 6700 holder tilbake et GTX1080 er forøvrig noe av det dummeste jeg har hørt her. 

Dersom du er så smart, siden mitt utsagn er så dumt, så test selv da.

 

Jeg sa at den i tider kunne holde tilbake et 1080, og vel, det gjorde den. Les: Jeg sa i BF1. Sa ikke på et generelt grunnlag. 

Endret av Snusmumr1kk1
Lenke til kommentar

La Menthe : Du tar ikke deg selv og dette diskusjons emnet litt for seriøst kanskje...? Det er beundringsverdig å søke etter fakta, og ikke bare gå rundt å tro ting som ikke stemmer, for all del, men å investere så mye følelser i dette er litt som å stange hodet sitt i veggen.

 

Randeboy skriver egentlig det meste jeg skulle si. Det hele går ut på at jeg ikke har tenkt til å stå der og se på en eller annen bruker forfalske bildet av situasjonen gjennom feilrepresenterte tall og fakta. Dette forumet har en stor andel brukere med entusiastbygg, og mange av disse kommer med påstander som åpenbart promoterer deres maskinvare som noe «overlegent». Jeg vil hjelpe folk til å bli mer kritiske til disse holdningene (og generelt alt annet). Her har du et fantastisk eksempel på en annen bruker gjør det samme om en annen sak.

 

I de enkeltviste diskusjonene er målet riktig informering av de faktiske forhold, og at vi baserer oss på empiriske data. Jeg ønsker derfor å passe på at forumlesere her inne ikke missinformeres. Å måtte da skrive rad på rad med gjengreferert tekst og diskusjoner rundt disse, er så leserne skal slippe det kjipe arbeidet selv, og fordi jeg ikke ønsker å komme med påstander uten belegg. Jeg er ingen forsker, ingen utvikler og ingen person med kapabilitet eller autoritet til å danne noen konklusjoner eller «egne tester». Derfor refererer jeg til godt oppbygde og detaljerte tester fra anerkjente kilder. Jeg prøver alltid, når jeg kan, å bruke flere kilder for å forsterke argumentet, og ikke minst se på feilkilder.

 

Grunnen til at jeg tok en aktiv rolle i forumet er fordi det lenge rådet et syn over Intel-E prosessorer (da Haswell-E) som «sublime» enheter for en rekke oppgaver som de ikke engang er blitt utviklet av Intel for. Oppgaver som for eks. gaming. Så når brukere spurte spørsmål som «[jeg] sitter på en i7 920. Burde jeg gå for 5820K eller 6700K? Skal brukes til spill og programmering», var svaret fra en av entusiastene «5820k lett!». Denne brukeren, som benyttet en 5820K (tror jeg) da, understrekte også at 5820K var mer fremtidssikker (som nesten alle entusiastene på den tiden gjorde). Han eier et 6900K nå, halvannet år senere. Når BF1 var ute i fjor høst, noterte han: «jeg får load på 16 tråder på cpu under loading i BF1, så noe skjer under loading ja. Altså Loadinga suger ut all kraft som maskinen har. SSD og mange kjernet cpu er garantert ikkje negativt.» Og så har du dette fantastiske eksempelet, hvor en bruker trenger hjelp til å oppgradere sin 2500K, og «vurderer 4690K/4790» med budsjett på 5K for HK og CPU til ny gaming-PC. For CPU alene, blir han anbefalt alt fra 5820K til 5960X (til 10,000,-) av de aktive medlemmene. Dette mens Skylake allerede var ute…tråden er full av all slags fortvilende gullkorn.

 

Det er slike typer holdninger og slik kunnskapsløshet jeg hele tiden har utfordret, og kommer til å utfordre. Dette er tydeligvis mennesker som har råd til å «kjøpe fet hardware» for å «nyte det», uten å egentlig forstå seg på hvorvidt det vil hjelpe dem eller ei (eksklusivitet er tydeligvis deres rettesnor). Men de fleste har ikke det, og det er derfor særs viktig å ikke gi de et feil bilde av den faktiske situasjonen. Jeg er selv medlem av dette miljøet, og du er ikke klar over hvor mange mennesker jeg møter på som har prosessorer, strømforsyninger, minnebrikker, osv. som rett og slett ikke kommer til sin rette til det de holder på med. Folk som kjøper 32GB med DDR3-brikker eller 1200W strømforsyning for å være fremtidssikker. Folk som kjøper 5820K, når de chatter og surfer innimellom, og gamer bare CS:GO ellers.

 

Selv om du setter spørsmål ved mine motivasjoner, kan du ikke ignorere hvor vanskelig det var å argumentere for 4c/4t og 4c/8t for et par år tilbake enn det, det er i dag. Så mye at når jeg først kom med uttalelser om det, var det som å banne i kirken. Heldigvis har denne situasjonen snudd på hodet, og disse entusiastene må ty til den ene og andre anekdoten av spill der ute, eller det ene eller andre praktiske tilfellet, hvor entusiastprosessorer er bedre/overlegne. Eller, som nå, feilrepresentering av resultater.

Endret av La Menthe
  • Liker 6
Lenke til kommentar

 

Om du trenger å tro at det er noe annet enn CPU/RAM i den testen som holder Fallout 4 tilbake til nøyaktig samme hastighet i 1440p med både et GTX1080FE og GTX1080Strix. Så, velbekommen.

 

Det er ikke noe å tro. Jeg viste klart og tydelig at problemet oppsto i alle systemer og med alle maskinvarer, og at roten til det er spillmotoren. Ingenting annet. 

 

Personlig tror jeg det er RAM'en som er flaskehalsen. Men det er ikke så veldig viktig. TPU's testoppsett er litt aldrende nå, og representerer nå en konfigurasjon som mange med 6700K har (Og mange har til og med tregere RAM). Altså er det mange som vil kunne oppleve begrensninger i ytelsen ved 1440p selv med en 6700K. (Bare at det egentlig sannsynligvis er RAM'en sin skyld da..).

 

Så alt som ble skrevet og satt fram om Fallout 4, tester av det, uttalelser fra anmelderne og mer, gikk rett over hodet på deg? 

 

Gidder jeg tråle Internet for å hale frem tester som tilfredsstiller dine krav for å understøtte disse selvfølgelighetene?

 

Selvfølgelighet, ja. Hahahaha. Her klarer du jammen meg å nå et nytt bunnpunkt, må jeg si. Din "selvfølgelighet", hvis argumentasjon er underbygget av antakelser av et problem, er ingenting annet enn et dårlig optimalisert spill som kjører, i Gamernexus' egne ord, på "en utdatert spillmotor".

 

Dette er nok et eksempel på hvordan brukere her inne gjør seg villig dumme for å akseptere ren tullball som "fakta" (i dette tilfellet kalt "selvfølgelighet"). Heldigvis er skrønene aldri så spesielt sofistikerte, og dermed enkle å avkle. 

 

 

Du har gravd frem en test som viser ganske stor forskjell i ytelse mellom launch og etter patch 1.3. Mens første testen din fra Gamersnexus er fra november 2015. Altså før selv 1.2 patchen. Og den tyske siden oppgir at de testet på Patch 1.1.29.  Og vi er nå på 1.8.

 

Ingen av linkene dine unntatt 1 inkludere test av GTX1080. Noe som er ganske essensielt når man forsøker å finne ut om en GTX1080 kan holdes tilbake av en 6700K. I denne testen har de benyttet 3200MHz minne i stedet for 3000MHz som hos TPU. Likevel ser vi en økt fps med litt over 2% med en effektiv overklokk på ~5% av 6700K (@stock booster 1 kjerne opp til 4,2GHz).

 

Som jeg sa regner jeg med det er RAM'en hos TPU som holder dem tilbake. Her ser du hvordan å gå opp fra 3000MHz til 3600MHz gir en økning på 12% også der med 6700K@4,5GHz. Man kan altså regne med rundt 4% høyere ytelse bare fra å gå opp til 3200MHz. Som igjen kanskje er nok til å fjerne toppen av en eventuell flaskehals.

 

Fallout 4 har ikke noe innebygget benchmark verktøy, så å sammenlikne fps fra benchmarks på kryss av publikasjoner gir dessverre mindre mening.

 

Her ser du at en 7700K@4,9GHz lar et GTX1080FE kjøre ~8,2% raskere i 1440p enn med en 6700K@stock. Så ingen flaskehals her, neida. Det må jo selvfølgelig være spillmotorens skyld.

 

Hva blir det neste? El Nino?

 

"Over hodet" på meg. Det var rette ræva som feis. Linken jeg viste til demonstrerer nøyaktig hva jeg har sagt. Men du forstår det åpenbart rett og slett ikke. Det er slett ikke lenge siden jeg måtte servere deg med teskje hvorfor "min fps" ikke er brukenes til noe fornuftig uten referanse. Og etter at jeg til slutt nådde frem var takken (parafraset): "Å herregud, dette visste jeg jo selvfølgelig. Hvorfor skriver du 5 avsnitt om det?".

 

Slike ting gjør det svært lite takknemlig å diskutere med deg. Her nå sist kunne jeg ikke gi deg en link som underbygger Christians opplevelse uten å bli beskyldt for stråmenn og forsøk på å hale meg inn i en HEDT vs debatt igjen.

 

Jeg ser flere deltakere her som kunne støttet meg. Men de gidder rett og slett ikke diskutere med deg. Og nå slutter jeg meg inn i deres rekker. Livet er for kort til å diskutere med deg...

  • Liker 1
Lenke til kommentar

asdasd

Synes La Menthe har et godt poeng jeg. Få fakta på bordet og ikke så mye feilinformering som det er på forumet her.

 

EDIT: Å mene at i7 6700 holder tilbake et GTX1080 er forøvrig noe av det dummeste jeg har hørt her. 

 

Dersom du er så smart, siden mitt utsagn er så dumt, så test selv da.

 

I din tilfelle har vi dessverre ikke muligheten til å referere til offisielle tester av BF1, da flerspiller (MP) ikke kan kontrolleres og gi godt representerte tall. Noen nettsted har lagt ut flerspillertester, men disse er altfor statiske, og stresser ikke CPUen på samme måte som 64 tilfeldige spillere med egenvilje ville ha gjort. Så jeg kommer til å bruke den eneste muligheten som eksisterer: private brukere på YouTube.

 

Før vi begynner, er det viktig å merke seg at 6700K, på alle tester der ute, har vist seg å være overlegen i 1440p, og også i den overveldende majoriteten av 1080p-tester. Det gjelder da selvfølgelig BF1 SP, som selv 6600K gjør en like god jobb på (MP er, som vi ser her, vanskelig å teste).

 

La oss så gå til tilgjengelig MP-tester. Du mente du testet med en overklokket 6700K og overklokket GTX 1080 i 1440p. 

 

Denne personen tester 6700K OC (4,6 GHz) med GTX 1080 OC (2000 MHz) i BF1 på kartet Sinai Desert (Conquest), med full server. 

Gjennomsnittlig bruk av CPU: 70%.

Gjennomsnittlig bruk av GPU: 100%

 

Denne personen tester 6700K (standardfrekvenser) med GTX 1080 OC (1900 MHz) i BF1 Beta på Sinai Desert (Conquest), med tilsynelatende full server.

Gjennomsnittlig bruk av CPU: 70%.

Gjennomsnittlig bruk av GPU: 100%

 
Denne personen tester 6700K OC (4,6 GHz) med GTX 1080 OC (1900 MHz) i BF1 på kartet Suez Canal (Conquest), med full server.
Gjennomsnittlig bruk av CPU: 75%.
Gjennomsnittlig bruk av GPU: 100%
 
Eventuelle feilkilder: andre (eventuelt mer intensive) kart, høyere GPU-clock og rett og slett alt som en amatørtest på YouTube kan kritiseres for. 
 
Disse tre eksemplene er de eneste ognærmeste jeg fant til ditt oppsett. Noen (eller alle) har kanske ikke 1080en overklokket like høyt som det du hadde. Men det er likevel nærme nok til å si at de på langt nær ikke samsvarer med det du fikk. Ei heller med det andre rapporterer med 6700K og GTX 1080 har. Det betyr ikke at du er en løgner, men at det du fikk ikke nødvendigvis er en korrekt representasjon av de faktiske tilfeller. 
Endret av La Menthe
  • Liker 2
Lenke til kommentar

Du har gravd frem en test som viser ganske stor forskjell i ytelse mellom launch og etter patch 1.3. Mens første testen din fra Gamersnexus er fra november 2015. Altså før selv 1.2 patchen. Og den tyske siden oppgir at de testet på Patch 1.1.29. Og vi er nå på 1.8.

Fair point. Vi er nå på 1.8. Men det som er viktig her er hvilken patch din kilde, TPU-testen, er på. De nevner dessverre ikke dette, men la oss anta at de har det nyligste. Testen ble gjort i juni 2016. Det betyr at den ferskeste utgaven var 1.5.157. TPG-kilden min er fra september 2016, som vil si 1.7. Så min test har nesten et halvt år nyere patch enn din.

 

Og en ting til: min test inkluderer samtlige prosessorer. Din inkluderer...vel...en prosessor.

Ingen av linkene dine unntatt 1 inkludere test av GTX1080. Noe som er ganske essensielt når man forsøker å finne ut om en GTX1080 kan holdes tilbake av en 6700K. I denne testen har de benyttet 3200MHz minne i stedet for 3000MHz som hos TPU. Likevel ser vi en økt fps med litt over 2% med en effektiv overklokk på ~5% av 6700K (@stock booster 1 kjerne opp til 4,2GHz)

Vi vet alle forklaringen på det (Fallout 4 og den lange perioden etter at den kom ut, var før Pascal), men la gå da. Jeg er villig til å forkaste alle mine tester for diskusjonens skyld. Hvis ~5% overklokk fører til 2% økt FPS, hvordan kan du da bruke DDR4-brikken som begrunnelse? ~5% overklokk skal i teorien gi ~5% økt FPS. Så om noe, er den økte ytelsen hentet herfra.

Som jeg sa regner jeg med det er RAM'en hos TPU som holder dem tilbake. Her ser du hvordan å gå opp fra 3000MHz til 3600MHz gir en økning på 12% også der med 6700K@4,5GHz. Man kan altså regne med rundt 4% høyere ytelse bare fra å gå opp til 3200MHz. Som igjen kanskje er nok til å fjerne toppen av en eventuell flaskehals.

Jeg betviler det ikke, da jeg selv var den første som ga kildehenvisning til en test fra Eurogamer som beviste dette. Men hele diskusjonen går ut på hvorvidt 6700K holder tilbake ytelsen i spill eller ikke, som du prøvde å argumentere for ved vise til en TPU-test. Ikke minneproblematikken. Videre, hvis minne er årsaken, da vil i så fall det være tilfellet i en hvilken som helst annen CPU som testes med DDR4-minnebrikker med lav frekvens mot DDR4-minnebrikker med høy frekvens. Du innrømmer altså indirekte her at 6700K ikke er problemet.

Fallout 4 har ikke noe innebygget benchmark verktøy, så å sammenlikne fps fra benchmarks på kryss av publikasjoner gir dessverre mindre mening.

Helt riktig. Heldigvis har jeg ikke sammenlignet publikasjonene med hverandre. Det jeg gjorde var å sammenligne de ulike CPUene i de bestemte publikasjonene med hverandre. Det vil da si samme type benchmarks for alle CPUene i den ene testen, deretter det samme i den andre testen. Jeg var kun interessert i hvordan ulike CPUer oppførte seg mot hverandre i den sanne benchmarken i det samme spillet.

Her ser du at en 7700K@4,9GHz lar et GTX1080FE kjøre ~8,2% raskere i 1440p enn med en 6700K@stock. Så ingen flaskehals her, neida. Det må jo selvfølgelig være spillmotorens skyld.

Hva blir det neste? El Nino?

Jeg vet dette er en vanskelig ting for deg å forstå, Gabri3L. Men du skjønner, når du overklokker en prosessor opp fra 4,2 GHz (som er det 6700K stock er -- den er egentlig mindre, men la gå da!), opp til 4,9 GHz, så overklokker man altså 16%. Så rent matematisk, og rent teoretisk, skal alt opp til 16% økt ytelse gi mening her.

 

Det er ikke rakettforskning.

"Over hodet" på meg. Det var rette ræva som feis. Linken jeg viste til demonstrerer nøyaktig hva jeg har sagt.

Hvilken link? Den som demonstrerer at frekvensøking = mer ytelse, eller den andre som tester Fallout 4 med en CPU -- som du bruker som konklusjon på at 6700K holder spill tilbake?

a(parafraset): "Å herregud, dette visste jeg jo selvfølgelig. Hvorfor skriver du 5 avsnitt om det?".

Parafrasert, som i, "la meg legge inn ordene 'Å herregud', for å få han til virke mer overdramatisk". Min setning gikk vel heller ut på din konstante repetering og utdypning av noe jeg allerede var enig med deg i. Og den gikk slik:

 

"Hvorfor skriver du hele fem avsnitt på å forklare meg noe som jeg opplagt forstår og har til og med sagt jeg er enig med deg og Gamernexus i (du gjengir også en helt del ting som Gamenexus konsist og klart forklarte i sin video om dette)?"

 

Jeg gir direkte link til diskusjonen vi to hadde, så får folk gjøre en egen avgjørelse på hvordan ting ble sagt, og hva som ble sagt: https://www.diskusjon.no/index.php?showtopic=1667781&page=12

hale meg inn i en HEDT vs debatt igjen.

Har ikke halet deg inn i noe. Du påsto 6700K holder ytelse tilbake i spill. Den eneste konklusjonen som kan trekkes fra dette er da at det må være andre CPUer som ikke holder ytelsen tilbake like mye. Man kan ikke danne et slikt argument, uten denne forutsetningen. Så det eneste jeg gjorde var å vise til tester der 6700K ble sammenlignet med andre CPUer. Seks- og åttekjerner like mye som to, tre og fire-kjerner fra en lang rekke arkitekturer. HW-E/BW-E var ikke de eneste.

Jeg ser flere deltakere her som kunne støttet meg. Men de gidder rett og slett ikke diskutere med deg. Og nå slutter jeg meg inn i deres rekker. Livet er for kort til å diskutere med deg...

Jess, en fantastisk deltakerskare bestående av folk som må feilrepresentere, fabrikkere og regelrett overdrive seg til sine argumenter. Jeg lar leserne og deres kritiske sans vurdere hva som er rett og hva som er galt. Hele mitt engasjement er tross alt basert på å avsløre en stor andel brukere her inne som intet annet enn skrønemakere. Å få et fiendestempel fra en gjeng med sjarlataner gjør meg ingen verdens ting.

Endret av La Menthe
  • Liker 6
Lenke til kommentar

Fantastisk med dyptgående kompetanse :)

 

Før satt jeg meg inn i alt dette selv, ny jobb og ny hverdag gir meg ikke den mentale overskuddsenergien lenger. Derav flott at de som har kunnskapen deler og diskuterer for å opplyse oss andre. Jeg vet også fra tidligere deltakelse i forumet at selv om man forsøker å holde seg objektiv så blir man også pushet litt av "faglig stolthet og itegritet" og det er for mange da veldig vanskelig å gi den andre rett.

 

Fantastisk at dere diskuterer, det gir oss andre enormt med nyttig kunnskap før vi tømmer lommebøker unødvendig. Jeg skal lese alt nøyere ved annledning men akkurat nå trenger jeg mest svar på et par ting.

 

Mine spørsmål:

 

- i5 7600K eller i7 7700K

Jeg driver ikke med rendering, enorme mengder komprimering, videoredigering, videoenkoding eller andre sterkt krevende lignende oppgaver.
Dog er jeg opptatt av å ha god ytelse i de tilfellene det trengs som eks. spill (alt fra strategi til ROTR og VR ting) og ikke så altfor verst ytelse i ting jeg gjør veldig sjeldent (videoenkoding, demuxing, transkoding).

 

Jeg kommer nok også til å klokke litt for bedre entrådet ytelse der det kommer til nytte (spesielt dårlig multicore optimaliserte spill)

7700K er rimelig fordyrende og jeg har faktisk tilgode å si at jeg har fått god nytte av 4C/8T på min X58 rigg gjennom årene. Derav vurderer jeg 4C denne gangen. Plattformer som X99 gidder jeg ikke en gang vurdere denne gangen med mindre prisene er tilnærmet identiske. Jeg skal heller ikke på noen måte ha SLI el.

PS.

Jeg har også slått fra meg å bruke hjemmemaskinen til store mengder LAB med servere kjørende på hypervisor som var deler bakgrunnen for X58 kjøpet den gang (samt også sli/cfx). Maskinen jeg kjøper nå vil også ha ferdig vannkjølingskit for CPUen og skal bygges i en mindre formfaktor enn maxi-tower jeg hadde før (coolermaster S cosmos) og blir da ant. midi eller minitower fra Phantek el. Jeg skal også ha den oppå pulten eller benk fremfor stående på gulvet under pulten som før.

 

- Z270 og Z170 ift PCIe modes og lanes

Førstnevnte har 24x, sistnevnte 20x men begge ser ut til å miste 16x dedikert til skjermkort så fort man setter inn et annet kort.

Jeg har kastet ut et SAS-Raid kort jeg hadde men har fortsatt et PCIe Asus Xonar Essence lydkort jeg gjerne vil ha med meg videre.

 

Er det slik at skjermkortet da går til 8x PCIe 3.0 og vil det være nok til GTX1070 kortet jeg har og evt. nok til 1080Ti om jeg skulle gå den veien ved et øyeblikks galskap? Det er jo helt tullete om man må gå til X99 eller lignende for å få 16x dedikert til et single skjermkort.

 

- Oppløsning på monitor nå er 16:9 1440P men senere blir det nok 21:9 1440P eller 4-5K

Jeg kommer også til å sørge for at neste skjerm kan kjøre høyere enn 60Hz og ha eks. native 100Hz samt Gsync. Tipper den blir en curved 21:9 34-35" av noe slag med 1440P.

 

Spørsmålet her er todelt:

- Vil i5 7600K fortsatt gjøre jobben godt nok?

- Er det også tilfelle hvis jeg må oppgradere 1070 kortet pga høyere oppløsning og ønske om høyere refreshrate?

Endret av Theo343
Lenke til kommentar

Theo343 : Fordelen med å kjøpe et Z270 kort er at det støtter 7600K/7700K ut av esken. Et Z170 kort krever BIOS update. Så svaret der er enkelt. Z270 skal da kjøre skjermkortet i 16X og lydkortet ditt i 4X PCI-E, samt at du har nok lanes for en PCI-E/M.2 SSD.

 

Du har vel egentlig svart deg selv hvilken CPU du bør gå for, 7600K. En slik overklokket til 4800+ Mhz blir en fin gaming CPU for 1440p ++ gaming. Ville iallefall investert i 3200 Mhz RAM brikker, og de er heller ikke så dyre. Personlig ville jeg valgt 7700K hvis jeg skulle valgt i dag.

Endret av Betroz
  • Liker 1
Lenke til kommentar

For vitenskapens skyld, så testet jeg igjen.

 

Forrige oppsett: 6700K på 4200mhz, 16GB ram på 3000, GTX 1080 på 2100mhz.

Innstilinger: Ultra preset på 1440P. 100% res. scale.

 

Nåværende oppsett: 7700K på 5000mhz, 16GB ram på 3000mhz, GTX 1080 på 2100mhz

Innstilinger: Ultra preset på 1440P. 100% res. scale.

 

Jeg leste at CPU usage kan ha vært en tidlig bug (Link1, ligger flere linker ute på nettet).

Jeg har jo ikke spilt på noen uker nå. Har vært en oppdatering i spillet og Origin virker det som.

 

Testet igår på samme brett, med 64 spillere, conquest,  akkurat samme innstillinger som før osv. Eneste forskjellen er at OS ble reinstallert.

 

CPU usage var langt ifra til tops når jeg hadde "Cam" overlay in-game. (samme program som jeg brukte sist)

 

Men grunnet at CPU er ny, så var klokkehastigheten og temperaturen feil, men usage virket riktig. Så må dobbeltsjekke med et annet program.

Så er en mulig feilkilde.

 

Ikke alle kjernene/trådene har blitt belastet 100% iløpet av rundene jeg spilte. Max usage per. kjerne lå på 94-100%. Dette var jo per. kjerne, og ikke totalt CPU usage.

 

Typisk CPU usage var vel på 50% elns på 5000mhz. Mener jeg aldri så den gå over 60%.

 

Skal teste mer ikveld. Ville bare gi en oppdatering.

Endret av Snusmumr1kk1
  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...