Gå til innhold

Intel-fokus på 32 nm


Anbefalte innlegg

Videoannonse
Annonse

Skal bli spennende å se om 32nm bringer noen store forbedringer ytelsesmessig. 45nm var veldig bra for Intel siden de kom med HKMG, 32nm har ikke noen slikt ess i ermet så det blir antagelig dårlig med spenningsskalering hvilket vil si at ytelse/watt antagelig ikke får all verdens forbedring slik vi så fra 65nm til 45nm. Flere transistorer blir det selvfølgelig plass til med 32nm og det er jo alltids noe. Nehalem kjernen er også veldig stor og kompleks og vil nok trives en del bedre på 32nm enn på 45nm hvor de interne avstandene ble litt i meste laget for å nå høye frekvenser.

 

På den positive siden kommer vel Intel med submersion lithography nå. Det kan vel gi noe bedre yield på sikt som igjen medfører lavere kost, spesielt på større brikker.

Endret av Anders Jensen
Lenke til kommentar

Blir spennende å se om det integreres mer på CPU i løpet av 2010. Eks. integrert PCIe kontroller med støtte for flere skjermkort enn 2, men det krever kanskje en annen sokkel enn LGA1156 i tillegg.

 

GPU integrasjonen venter vi jo også på og om den vil støtte GPU aksellerert x.264 1080p avspilling på eks. en LGA1156 plattform i microATX format så begynner det å bli interessante løsninger. I tillegg håper jeg på en del miniITX kort som er det formatet jeg håper vil vokse en del med bedre CPU integrerte løsninger.

 

Ellers kan vel fortsatt en del NB/SB fuksjonalitet med fordel integreres i CPU? Hva med en L4 i form av 256MB RAM?

Endret av Theo343
Lenke til kommentar
Fremover kommer fokuset til å ligge på 32 nm-teknikk i Core-familien. Ut av dette kommer det før årets slutt Clarksdale for stasjonær og Arrandale for bærbare, begge med integrert grafikkjerne.

Clarksdale og Arrandale tilhører Nehalem-familien. (Som er etterkommere av Core-familien)

 

Det er Arrandale (for bærbare) som skal komme før årets slutt. Clarksdale kommer vist ikke før i januar.

 

Vi er meget spent på om AMD vil klare å besvare Intels 32 nm-lanseringer på en god måte og det måtte i så fall være i form av en 12-kjerne (Magny-Cours) som selskapet har snakket om i lengre tid.

Intels dobbeltkjerner Clarksdale (budsjett desktop) og Arrandale (bærbare) kommer ikke til å konkurrere mot AMDs Magny Cours (serverprosessor).

Lenke til kommentar
Blir spennende å se om det integreres mer på CPU i løpet av 2010. Eks. integrert PCIe kontroller med støtte for flere skjermkort enn 2, men det krever kanskje en annen sokkel enn LGA1156 i tillegg.

Jepp, da kreves det nok en ny sokkel. Kanskje arvtageren til LGA1366 får det? (Men det skjer neppe før "Sandy Bridge"-arkitekturen kommer i 2011.)

 

GPU integrasjonen venter vi jo også på og om den vil støtte GPU aksellerert x.264 1080p avspilling på eks. en LGA1156 plattform i microATX format så begynner det å bli interessante løsninger. I tillegg håper jeg på en del miniITX kort som er det formatet jeg håper vil vokse en del med bedre CPU integrerte løsninger.

Tester av den nye integrerte GPUen i Nehalem-serien viser at den faktisk er i stand til det. (Skulle egentlig bare mangle da den er ca 5 år nyere enn Intel 945 som sitter i de fleste Atom-bærbare). Ytelsen er vist omtrent halvparten av Geforce 9400 Integrert grafikk, og det er faktisk ikke så verst.

 

Ellers kan vel fortsatt en del NB/SB fuksjonalitet med fordel integreres i CPU? Hva med en L4 i form av 256MB RAM?

Det vanlige systemminnet er jo en slags L4 cache. Jeg ser ikke for meg hvordan de kan presse inn ennå et nivå i minnehierarkiet på noen fornuftig måte.

 

NB er med de siste Core i7/i5-prosessorene helt borte. SB er kun lavhastighets-komponenter som krever mange pinner. Der ser jeg ikke noe nevneverdig potensiale. Men for servere kan kanskje 10 GbE bli integrert i CPU. En god SSD-kontroller (direkte til NAND) kan også være en god idé å integrere i CPU ("L5 cache").

Lenke til kommentar

Jeg tror ikke det kommer L4 cache utenfor servere og kanskje er det endelig slutt for L4 der også. 3 nivåer cache løser egentlig det meste. L1 tar ca 90% av treffene og skal levere på så kort varsel at en unngår bobler. L2 skal levere høy båndbredde og brukes for det meste til å fylle opp L1 når CPU går til et nytt datasett, gjerne inne i en nøstet løkke. L3 holder kapasiteten og fyller opp L1 og L2 med relevant info når cpu hopper i større datasett.

 

Som en ser:

L1 prioriterer forsinkelse og båndbredde, men ofrer veldig mye kapasitet.

L2 prioriterer båndbredde, men ofrer litt forsinkelse og litt kapasitet

L3 prioriterer kapasitet, men ofrer både forsinkelse og båndbredde

 

Hva skulle da L4 optimalisere for? Videre kommer det snart L3 cache basert på mer plasseffektive RAM teknologier enn SRAM, slik som ZRAM.

 

Dessuten er direkte adressert minne mye raskere og mer plass- og energi-effektivt enn cache. Jeg tror vi snart vil se CPU med integrert DRAM. Ytelse og effektforbruk gevinsten fra dette vil bli helt enorm fordi det vil si at selve CPU kjernen kan redesignes til ikke lengre å slå knute på seg selv for å gjemme minneforsinkelse.

Endret av Anders Jensen
Lenke til kommentar

Jeg tenkte helt klart i retning DRAM integrasjon ja og benyttet beklagelig et totalt misledende uttrykk når jeg kalte det "L4". Tanken min var et lite DRAM buffer integrert i CPU :). Men må man da ha hele DRAM biten i CPU eller kan man kombinere det med DRAM på hovedkortet?

 

Altså jeg tenker en slags hypermemory løsning som man ser for integrerte GPUer på laptops osv. i dag som har eget dedikert minne men også kan benytte seg av systemminne på hovedkortet? Om man kombinerer så mister man muligens gevinsten man ønsker å oppnå og hvordan skal man prioritere bruken av den integrerte DRAM?

 

 

Simen1:

Kan APU også med fordel integreres i CPU? Nå i dag er det lite eller ingen hovedkort som har integrert APU da de fleste benytter codec chips hvor arbeidet alikevel prosesseres i CPU, men hva om man flyttet hele biten over til CPU? Jeg tenker i retning besparelser av unødvendige kretser og chips på hovedkortet. Altså nærme oss SoC så langt det er mulig.

 

Jeg ser også helt klart fordelen av å få en spesialisert NAND kontroller integrert i CPU, og håper virkelig dette skjer. I tillegg kan vel med fordel mye av integrerte kontrollere som SAS / SATA og grunnleggende RAID funksjonalitet generelt sett flytttes inn i CPU?

 

2x1GbE LOM med god funksjonalitet på arbeidsstasjoner kan vel også med fordel integreres i CPU istedet for mange av de dårlige løsningene man finner i dag ute på hovedkortet? Intel har jo en del gode nettverkskontrollere de kunne integrert. Men så er det vel kanskje billigst og minste-motstands-vei å bruke de eksisterende og ofte dårlige LOM løsningene som finnes.

 

 

NB!

Jeg snakker selvf. om integrering av spsialiserte kontroller onDIE på CPU og ikke at man skal overføre jobben til GP biten i CPU. (en selvfølge for debatten, men ville forsikre meg).

Endret av Theo343
Lenke til kommentar
Jeg tenkte helt klart i retning DRAM integrasjon ja og benyttet beklagelig et totalt misledende uttrykk når jeg kalte det "L4". Tanken min var et lite DRAM buffer integrert i CPU :). Men må man da ha hele DRAM biten i CPU eller kan man kombinere det med DRAM på hovedkortet?

 

Altså jeg tenker en slags hypermemory løsning som man ser for integrerte GPUer på laptops osv. i dag som har eget dedikert minne men også kan benytte seg av systemminne på hovedkortet? Om man kombinerer så mister man muligens gevinsten man ønsker å oppnå og hvordan skal man prioritere bruken av den integrerte DRAM?

Problemet med integrert minne er at om du går tom og må bruke swap går maskinen meget tregt, minnekravene øker hele tiden. 2GB er minimum for nye maskiner i dag.

Ja du kan bruke integrert dram som en L4 cache, ingen store problemer med det, vet ikke hvor mye ytelse forbedring det ville bli.

Lenke til kommentar

APU og LAN kan enkelt integreres i CPU, men det vil i praksis bare flytte pinner fra SB til CPU. Det er ikke ønskelig å ha alt for mange pinner på CPU. SB er en slags "low speed HUB" som gir få pinner inn mot CPU og mange pinner ut mot diverse funksjonalitet på hovedkortet. SoC gir altså mer mening med lav-effekt CPUer som Atom (1 minnekanal = få pinner, lav effekt = få Vcc og GND-pinner)

 

Et problem med DRAM på CPU er lav kapasitet i forhold til systemminne. Selv om det stables en rekke DRAM-brikker oppå hverandre. Løsningen din (HyperMemory) er sikkert en god løsning så fremt det er direkte adressert (i følge innlegget til AJ). Det hadde blitt ennå bedre om OSet hadde vært klar over dette minnet og optimalisert for å bruke det.

 

En annen løsning er å erstatte L3 SRAM med L3 DRAM. Det vil gå ut over aksesstiden, men båndbredden tror jeg kan komme på samme nivå. Kompromisset er altså dårligere aksesstid i bytte mot mye større kapasitet.

Lenke til kommentar
Derfor må poenget være å klare å kombinere CPU integrert DRAM med DRAM på hovedkortet før man kommer til Swap. Håpet at kanskej Simen1 og Anders Jensen hadde noen opplysende teorier rundt dette :)

Flere synlige (adresserbare) nivåer, sett fra software, av RAM er nok noe som må komme til slutt, men det er mye smerte som er involvert for programmerere her. Mye mer enn å gå over til flertrådet programmering. GPU programmering er mer komplekst først og fremst fordi en har flere synlige nivåer av minne.

Endret av Anders Jensen
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...