Gå til innhold

RYKTE: Intels Cannonlake kan få åtte kjerner


Anbefalte innlegg

Videoannonse
Annonse

Jeg mener at dette er tegn på at Intel nå ikke greier å få tynet mer ut av hver kjerne ytelsemessig og at de nå må gå over på flere kjerner per Cpu for å øke ytelsen som man i teori kan gi per cpu.

 

Når det gjelder HT så er ikke det et stort problem om den forsvinner så lenge man bakker det opp med økt ytelse per kjerne , husk at HT har tatt plass på arkitekturen til Intel og ved å kutte det ut kan man i teorien få til flere kjerner på mindre nm.

  • Liker 1
Lenke til kommentar

 

Da sier jeg : Ja takk til Cannonlake-E med 16++ kjerner  :cool:

Burde bli en fin oppgradering fra 5960X.

Er nå bare å kjøpe server CPU og HK om du absolutt vil ha mange kjerner og har nok spenn på kontoen

http://ark.intel.com/products/84685/Intel-Xeon-Processor-E7-8890-v3-45M-Cache-2_50-GHz

 

 

Det er ikke det samme. Xeon er ikke en CPU man kan overklokke heller, så ikke en entusiast CPU egentlig. Dessuten var 5960X mer enn dyr nok. Klarer meg fint med min 2-3 år til.

Lenke til kommentar

Jeg mener at dette er tegn på at Intel nå ikke greier å få tynet mer ut av hver kjerne ytelsemessig og at de nå må gå over på flere kjerner per Cpu for å øke ytelsen som man i teori kan gi per cpu.

Det er en veldig god antakelse. Alle lavthengende fruktene for å tyne ut mer ytelse per kjerne (IPC) av Intel sine "store x86 kjerner" er nå brukt opp. Større forbedringer vil nå koste for mye i form av transistorer og energi.

 

Det første Intel har gjort med dette nå i Skylake er å lage to forskjellige IP (design) på CPU kjernene ut i fra om det er ultrabook/laptop/desktop eller som det er workstation/server.

Kaby Lake neste år vi se forandringer i minnehierarkiet, de fleste modellene også på desktop kommer nå til å blant annet bruke lever 4 cache for å øke ytelsen. En mer moden 14nm prosess vil forhåpentligvis også hjelpe, slik det gjorde med "Haswell refresh".

Cannonlake som blir Skylake krympet til 10nm kommer til å legge til kjerner for å øke ytelsen.

Lenke til kommentar

Så mangler det bare å få multikjerneutnyttelse på nivå med Android, fordi multikjerneutnyttelse i Windows er dårlig i maaaaange programmer.

 

Det blir interessant hva de gjør senere, når det både er vanskelig å krympe, øke IPC og de ikke bare kan legge til mer kjerner ( det er ikke som om noen spill kunne utnyttet en 64-kjerne i7 uansett) Selv på 8 er det svært få titler.

Lenke til kommentar

 

Da sier jeg : Ja takk til Cannonlake-E med 16++ kjerner  :cool:

Burde bli en fin oppgradering fra 5960X.

 

Er nå bare å kjøpe server CPU og HK om du absolutt vil ha mange kjerner og har nok spenn på kontoen

http://ark.intel.com/products/84685/Intel-Xeon-Processor-E7-8890-v3-45M-Cache-2_50-GHz

Xenon vil i mange tilfeller yte dårligere, pga dårligere IPC. Vanlige programmer klarer ikke å utnytte xenon CPUene, og dermed forblir de i stor grad uutnyttet. Mye bedre å kjøpe en consumer CPU til consumer-greier.

Lenke til kommentar

Så mangler det bare å få multikjerneutnyttelse på nivå med Android, fordi multikjerneutnyttelse i Windows er dårlig i maaaaange programmer.

 

Det blir interessant hva de gjør senere, når det både er vanskelig å krympe, øke IPC og de ikke bare kan legge til mer kjerner ( det er ikke som om noen spill kunne utnyttet en 64-kjerne i7 uansett) Selv på 8 er det svært få titler.

 

Hvilke belegg har du for nettopp dette? Rent konkret, snakker du om Windows 10 , Windows 8.1 eller Windows 7?

Lenke til kommentar

 

Det er ikke det samme. Xeon er ikke en CPU man kan overklokke heller, så ikke en entusiast CPU egentlig. Dessuten var 5960X mer enn dyr nok. Klarer meg fint med min 2-3 år til.

 

Xeon i linken koster jo $7174.00, da syns jeg de kunne kostet på seg en kjøler i det minste.... :)

 

 

Jeg mener at dette er tegn på at Intel nå ikke greier å få tynet mer ut av hver kjerne ytelsemessig og at de nå må gå over på flere kjerner per Cpu for å øke ytelsen som man i teori kan gi per cpu.

 

finnes det noe oversikt på dette? er vel utrolig lite som har skjedd siste 4 år??

Lenke til kommentar

 

finnes det noe oversikt på dette? er vel utrolig lite som har skjedd siste 4 år??

 

 

Hovedsakelig så har Intel fått på plass grafikkbiten, økt ytelsen på hver kjerne og ikke minst sørget for bedre grafikkytelse.

Noen utgaver har også fått lavere produksjonsprosess , lavere strømforbruk og noe økt ytelse , men det er ikke en enorm forskjell faktisk de siste 4 årene.

 

Personlig hadde jeg nok kunnet sagt at kappløpet nå er over og at vinneren er Intel...

Vi forbrukere ble taperne og Amd kanskje konkurs i løpet av de neste årene..

  • Liker 1
Lenke til kommentar

 

 

 

Da sier jeg : Ja takk til Cannonlake-E med 16++ kjerner  :cool:

Burde bli en fin oppgradering fra 5960X.

Er nå bare å kjøpe server CPU og HK om du absolutt vil ha mange kjerner og har nok spenn på kontoen

http://ark.intel.com/products/84685/Intel-Xeon-Processor-E7-8890-v3-45M-Cache-2_50-GHz

 

 

Det er ikke det samme. Xeon er ikke en CPU man kan overklokke heller, så ikke en entusiast CPU egentlig. Dessuten var 5960X mer enn dyr nok. Klarer meg fint med min 2-3 år til.

Joda, man kan faktisk overklokke Xeon 1600 serien, men ikke Xeon 2600 osv som pares sammen med flere.

 

https://www.reddit.com/r/overclocking/comments/2ywtko/intel_e51650v3_overclockingyes_unlocked_xeon/

Lenke til kommentar

Så mangler det bare å få multikjerneutnyttelse på nivå med Android, fordi multikjerneutnyttelse i Windows er dårlig i maaaaange programmer.

Det er ikke noe galt med multikjerneutnyttelsen i Windows, men det viser seg å være vanskelig for programmerere å skrive programmer som bruker flere kjerner. Man har tidligere blitt bortskjemt med at ytelsen per kjerne (IPC) øker jevnt og trutt.

 

Men i programmereres forsvar så er det også flere algoritmer og problemer som ikke uten videre er egnet til å parallelliseres.

Lenke til kommentar

Hvilke belegg har du for nettopp dette? Rent konkret, snakker du om Windows 10 , Windows 8.1 eller Windows 7?

 

Det er ikke OSet det er noe galt med, men manglende støtte fra programmer, som ofte kjører på 1 eller 2 kjerner. Hvis du ser på anandtech sin test på Android så utnytter svært mange programmer minst 4. Tyngre programmer, som nettleser f. eks støtte fint 8 kjerner. Google play oppdatering estimerte de til å kunne klare over 10. Noe som faktisk kommer fra MediaTek (10- kjerne CPU).

 

Hvor mange spill utnytter 8 kjerner f. eks? GTA 5, Battlefield 4, flere? Det er ikke mange som gjør det! Se på en dual core i3, den gjør det utrolig bra mot AMD sin 8 kjerne FX 8350 (selv om den ikke er ekte 8 kjerner). Selv om du ser at det er en klar forskjell i spill som GTA 5 som bruker alle 8, så har den ikke et overtak pga antall kjerner over en dual core i resten av spill som vanligvis testes. (Sjeldent med Battlefield multiplayer tester, og singleplayer er ikke representativt for CPU bruk, og ingen spilelr singleplayer...)

 

Det er ikke noe galt med multikjerneutnyttelsen i Windows, men det viser seg å være vanskelig for programmerere å skrive programmer som bruker flere kjerner. Man har tidligere blitt bortskjemt med at ytelsen per kjerne (IPC) øker jevnt og trutt.

Men i programmereres forsvar så er det også flere algoritmer og problemer som ikke uten videre er egnet til å parallelliseres.

 

Som sagt, så mente jeg programmene som lages for windows. Jeg forstår at ting kan være vanskelig og lignende, men de får det nå bra til i apps for android. Jeg er klar over at det er forskjeller osv. Jeg bare sier at det vil ikke hjelpe Intel altfor lenge å hive inn mer kjerner, da du trenger SW for å backe det opp. Noe som ikke eksisterer til windows i samme grad som android. Der big.LITTLE er veldig vanlig, og nå også kommer i 10 kjerne versjoner. Dette året har jo vært nesten utelukkende big.LITTLE. Ingen custom fra NVIDIA eller Qualcomm. Selv Qualcomm sin custom kjører jo på 4 kjerner.

 

 

Men har ikke egentlig Intel satset på flere kjerner litt allerede? Var ikke turbo boost bare for en kjerne før, mens den nå booster alle kjerner ganske likt? Slik som Core-M, den booster vel begge kjernene likt, kontra en-kjerne boost som ble brukt før.

Lenke til kommentar

Er det ikke bare en naturlig utvikling da, at de før eller siden så må de gjøre det (ha flere kjerner) for å ikke bli tatt igjen så lett av konkurrentene (de konkurrenter som evt. måtte være igjen enda) ?

 

I og med at f.eks. AMD utelukkende har fokusert på de rimeligere prosessorene, så vil vel kanskje Intel ha enda større biter av kakene. Kanskje Intel har som mål å skvise seg inn i flere enheter, som konsollene som AMD har taket på og liknende enheter etterhvert. Kanskje de kan lage en råtass mobiltelefon CPU, når nanometerne kryper nedover ? Eller at de Cannonlake CPU'ene som skal inn i de minst strømslukende bærbare, faktisk også fint kan plasseres i en mobiltelefon sånn etterhvert?

Endret av G
Lenke til kommentar

 

Hvilke belegg har du for nettopp dette? Rent konkret, snakker du om Windows 10 , Windows 8.1 eller Windows 7?

 

Det er ikke OSet det er noe galt med, men manglende støtte fra programmer, som ofte kjører på 1 eller 2 kjerner. Hvis du ser på anandtech sin test på Android så utnytter svært mange programmer minst 4. Tyngre programmer, som nettleser f. eks støtte fint 8 kjerner. Google play oppdatering estimerte de til å kunne klare over 10. Noe som faktisk kommer fra MediaTek (10- kjerne CPU).

 

Hvor mange spill utnytter 8 kjerner f. eks? GTA 5, Battlefield 4, flere? Det er ikke mange som gjør det! Se på en dual core i3, den gjør det utrolig bra mot AMD sin 8 kjerne FX 8350 (selv om den ikke er ekte 8 kjerner). Selv om du ser at det er en klar forskjell i spill som GTA 5 som bruker alle 8, så har den ikke et overtak pga antall kjerner over en dual core i resten av spill som vanligvis testes. (Sjeldent med Battlefield multiplayer tester, og singleplayer er ikke representativt for CPU bruk, og ingen spilelr singleplayer...)

 

 

Jeg regner med du ser forskjellen på innlegget som du skrev og som jeg quotet og det du nå svarer med?

Det er i alle fall en haug av forskjell.

 

Men for å simplifisere litt : generelt sett kan vi si at de som utvikler programvare har vært tregt ute med å lage programvare som bruker flere kjerner , trolig har dette også en sammenheng med populariteten til eldre OS (Windows brukere er trege til å gå fra et eldre os til et nyere os , noe den store markedsandelen til Windows xp og 7 er et godt eksempel på) , android enheter har fra starten av vært langt mer fleksible i forhold til bruken av kjerner og ikke minst verktøy for å få dette til så det er kanskje ikke så rart at det er lettere der (på en måte).

 

Uansett så er DX12 og Windows 10 et viktig steg videre og så fort flere brukere kan gå over til det nye oset jo mer sannsylig blir det for at flere programmer og spill vil ta i bruk de "nye ressursene" som de nå har tilgjengelig. Dette er noe man allerede nå ser i hvordan DX12 kan utnytte bedre på cpu og gpu enn før.

Lenke til kommentar

Der big.LITTLE er veldig vanlig, og nå også kommer i 10 kjerne versjoner. Dette året har jo vært nesten utelukkende big.LITTLE. Ingen custom fra NVIDIA eller Qualcomm. Selv Qualcomm sin custom kjører jo på 4 kjerner.

Der kan vi nok skylde litt på 20nm prosessene som har blitt brukt i forrige generasjon (Tegra X1 og Snapdragon 808/810). Qualcomm ble også tatt på sengen av Apple A7 som var 64-bit (ARMv8), slik at de var nødt til å droppe "Krait" som er et 32-bit design.

 

Neste runde med SoC design fra Nvidia og Qualcomm kommer til å bruke 16nm FinFET. Nvidia kommer til å bruke 2. generasjon "Denver" til neste år, og Qualcomm kommer med "Kryo" i Snapdragon 820. Begge disse er custom, og bruker ikke big.LITTLE.

 

Samsung og MediaTek kommer nok til å fortsette med ARM sine referansedesign og big.LITTLE.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...