Gå til innhold

Nehalem vist frem


Anbefalte innlegg

Videoannonse
Annonse

Hvorfor ser bildet så rotete ut? Som om prosessoren er smurt utover?

 

- Integrert grafikk ser ut til å bli siktet inn mot AMDs "fusion" (også integrert grafikk)

- Quickpath ser ut som AMDs HTT, altså med 4 linjer akkurat som AMDs nåværende.

- Hvordan vil den nye HyperThreading-implementasjonen virke? Med tanke på at pipelinen trolig vil bli betydelig kortere enn sist de brukte det (Netburst).

- Lurer på hvordan varmeutviklingen vil bli med en dobling av kjernene, mer arbeid per kjerne (HT), mer avansert interconnect, integrert minnekontroller og hele 731 millioner transistorer, og alt dette uten å krympe fra de kommende 130W Yorkfield-prosessorene.

Endret av Simen1
Lenke til kommentar
Hvorfor ser bildet så rotete ut? Som om prosessoren er smurt utover?

 

- Integrert grafikk ser ut til å bli siktet inn mot AMDs "fusion" (også integrert grafikk)

- Quickpath ser ut som AMDs HTT, altså med 4 linjer akkurat som AMDs nåværende.

- Hvordan vil den nye HyperThreading-implementasjonen virke? Med tanke på at pipelinen trolig vil bli betydelig kortere enn sist de brukte det (Netburst).

- Lurer på hvordan varmeutviklingen vil bli med en dobling av kjernene, mer arbeid per kjerne (HT), mer avansert interconnect, integrert minnekontroller og hele 731 millioner transistorer, og alt dette uten å krympe fra de kommende 130W Yorkfield-prosessorene.

9527948[/snapback]

 

Simen se for deg det AMD snakket om: Omvendt HyperThreading, PC-en tror at det er en kjerne, om det er 8 3,0GHz kjerner, oooh, da snakker vi

Lenke til kommentar

Omvendt HyperThreading er en myte. Det finnes ikke. Speculative threading er mulig (og finnes i bruk f.eks på Itanium), men neppe veldig energieffektivt med mindre en kompilerer spesifikt for det, og benyttes stort sett for å få flere overlappende load instruksjoner gående heller enn å regne i parallell. I tillegg er disse ekstra load instruksjonene bare til å varme opp cachen så vidt jeg vet. Kan få 10-20% ekstra ytelse på applikasjoner som egner seg til slikt. Negativ "gevinst" på resten.

 

Simen1: vil tro kjernen ser så uklar ut fordi de har benyttet mye automatisk plassering av transistorer og ledere. Da får en ikke de rene overflatene som en får med manuell plassering, men de kan nok oppnå noe bedre ytelse, i allefall på sikt. Det går imidlertid først og fremst mye fortere å utvikle, noe som ikke er uvesentlig når en begynner å nærme seg en milliard transistorer.

 

Liker forøvrig Nehalem designet rimelig godt. Så langt jeg kan se har den ingen ulemper i forhold til noen av dagens x86 design. Noe vi ikke kan si om Penryn med sitt avlegse minnehierarki og Barcelona med sin relativt skrøpelige integer ytelse, og begge mangler jo SMT som fortsatt er kjekt på en del database workloads. Sammenlignet med andre ikke-x86 design (Power 6, Niagara, Itanium) er det imidlertid mindre spektakulært. Nehalem vil vel gå inn i historien som en av de siste virkelig store fat-core design og bli husket som enormt inneffektiv i forhold til sine tynnere etterkommere, da gjerne med noe annet enn x86 ISA... se signatur osv. :p

Endret av Anders Jensen
Lenke til kommentar

reverse-hyperthreading høres veldig fint ut det, men det er ingenting som tyder på at slik teknologi eksisterer, eller i det hele tatt er mulig å skape, ihvertfall ikke i en form som vil kunne fungere universalt eller slik som folk tror når de diskuterer emnet.

 

http://www.theinquirer.net/default.aspx?article=32885

http://arstechnica.com/news.ars/post/20060713-7263.html

 

-Stigma

Endret av Stigma
Lenke til kommentar
Simen se for deg det AMD snakket om: Omvendt HyperThreading, PC-en tror at det er en kjerne, om det er 8 3,0GHz kjerner, oooh, da snakker vi

9528260[/snapback]

Den idéen ble avslørt som bare oppspinn. Ikke fordi AMD tilfeldigvis ikke hadde valgt å lage noe sånt men fordi det ikke er forenelig med måten prosessorer fungerer på.

Lenke til kommentar
Omvendt HyperThreading er en myte. Det finnes ikke. Speculative threading er mulig (og finnes i bruk f.eks på Itanium), men neppe veldig energieffektivt med mindre en kompilerer spesifikt for det, og benyttes stort sett for å få flere overlappende load instruksjoner gående heller enn å regne i parallell. I tillegg er disse ekstra load instruksjonene bare til å varme opp cachen så vidt jeg vet. Kan få 10-20% ekstra ytelse på applikasjoner som egner seg til slikt. Negativ "gevinst" på resten.

 

Simen1: vil tro kjernen ser så uklar ut fordi de har benyttet mye automatisk plassering av transistorer og ledere. Da får en ikke de rene overflatene som en får med manuell plassering, men de kan nok oppnå noe bedre ytelse, i allefall på sikt. Det går imidlertid først og fremst mye fortere å utvikle, noe som ikke er uvesentlig når en begynner å nærme seg en milliard transistorer.

 

Liker forøvrig Nehalem designet rimelig godt. Så langt jeg kan se har den ingen ulemper i forhold til noen av dagens x86 design. Noe vi ikke kan si om Penryn med sitt avlegse minnehierarki og Barcelona med sin relativt skrøpelige integer ytelse, og begge mangler jo SMT som fortsatt er kjekt på en del database workloads. Sammenlignet med andre ikke-x86 design (Power 6, Niagara, Itanium) er det imidlertid mindre spektakulært. Nehalem vil vel gå inn i historien som en av de siste virkelig store fat-core design og bli husket som enormt inneffektiv i forhold til sine tynnere etterkommere, da gjerne med noe annet enn x86 ISA... se signatur osv. :p

9528544[/snapback]

 

 

reverse-hyperthreading høres veldig fint ut det, men det er ingenting som tyder på at slik teknologi eksisterer, eller i det hele tatt er mulig å skape, ihvertfall ikke i en form som vil kunne fungere universalt eller slik som folk tror når de diskuterer emnet.

 

http://www.theinquirer.net/default.aspx?article=32885

http://arstechnica.com/news.ars/post/20060713-7263.html

 

-Stigma

9528548[/snapback]

 

640k ougth to be enough for everybody. Ingenting er umulig. Vanlig HyperThreading fungerer jo slik folk tror, men det er spørs om det er verdt å bruke penger på det. Siden det er kommet opp til 4 kjerner, så vil vel heller spillprodusentene lage spille som utnyyer alle kjernene maksimalt

Lenke til kommentar
Nehalem vil vel gå inn i historien som en av de siste virkelig store fat-core design og bli husket som enormt inneffektiv i forhold til sine tynnere etterkommere, da gjerne med noe annet enn x86 ISA... se signatur osv. :p

9528544[/snapback]

 

Hehe, vi får se, det ingeniører synes er best er ikke alltid det markedet velger :) Og husker jeg ikke feil, så mente du vel at x86 burde vært ute av mid og high-end-servere innen disse tider for et par år siden også? ;) (som sagt mulig jeg husker feil). Det blir interessant å se i alle tilfeller.

 

AtW

Lenke til kommentar

Det skjer mye spennende med Intels design for tiden. Se bare på Montevina-plattformen, som skal etterfølge Santa Rosa i 1. kvartal neste år. Den vil bl.a. støtte Perryvile, som er en bærbar-prosessor.

 

Og siden Montevina vil støtte opptil 1600 MHz FSB og 1600 MHz DDR3 er det ikke umulig at vi får se bærbare med de spesifikasjonene neste år! Det fortsetter trenden vi har sett en stund fra Intel nå - at prosessorer og brikkesett utvikles med tanke på å kunne brukes på alt fra bærbare til servere.

Lenke til kommentar
@ Anders Jensen:

 

Bra innlegg. Men jeg ser at det påpekes en mulig sammenheng mellom pipeline-dybde og gevinsten av HyperTreading. Var det ikke bare en myte at man trenger lang pipeline for å utnytte HT effektivt?

9532233[/snapback]

For å utnytte SMT effektivt trenger du:

1 Mange renaming registre for å holde et stort nok antall live verdier.

2 Stort instruksjons vindu for å ha nok instruksjoner fra alle trådene å plukke fra.

3 Godt med in-flight instruksjons kapasitet slik at du har noe regnekapasitet å ta av. Det vil si dybde ganger bredde. F.eks 14x4 for Core2 eller 12x3 for K8/K10.

 

Dette er forøvrig akkurat det samme du behøver for å få høy singel tråds ytelse. SMT kan videre dra god nytte av litt direkte styring fra OS for bedre ressurs prioritering.

 

Det tredje punktet er der de fleste entusiaster snubler. Og det er opphav til en drøss med myter, slik som at IPC reduseres proporsjonalt med pipeline lengde, og at SMT er best på dype pipelines, noe som isolert sett er litt riktig, men ikke veldig signifikant (kan si det er ett av 4 kriterier).

 

Nå er det to ting som er viktig å vite om SMT:

1) Det utnytter og legger beslag på de samme ressursene som en trenger for å få høy singel tråd ytelse. Det er også de ressursene som skalerer med absolutt dårligst ytelse/watt i dagens design.

 

2) Den viktigste effekten er ikke, slik som mange entusiaster tror, å kunne regne i parallell, men å kunne gjøre flere loads i parallell. En kan få mer memory level parallelism (MLP). Som er noe av det viktigste per i dag for mange workloads og det er en trend vi vet med sikkerhet at vil bli mer viktig så lenge minne fortsetter å henge etter utviklingen av CPU.

 

Når en virkelig forstår dette siste punktet så forstår en også hvorfor IBM, Intel og SUN alle har lagd flertrådings teknikker som ikke (eller nesten ikke i tilfelle IBM Power6) øker IPC, men heller satser alt på MLP. Tenker da spesielt på Montecito som har en MT teknikk som er 100% MLP fokusert, men også Niagara ligger veldig tett opp mot dette. Niagara kan redusere bobler på litt finere nivå enn Montecito, men kjører fortsatt bare en tråd per steg i CPU.

Lenke til kommentar
Nehalem vil vel gå inn i historien som en av de siste virkelig store fat-core design og bli husket som enormt inneffektiv i forhold til sine tynnere etterkommere, da gjerne med noe annet enn x86 ISA... se signatur osv. :p

9528544[/snapback]

 

Hehe, vi får se, det ingeniører synes er best er ikke alltid det markedet velger :) Og husker jeg ikke feil, så mente du vel at x86 burde vært ute av mid og high-end-servere innen disse tider for et par år siden også? ;) (som sagt mulig jeg husker feil). Det blir interessant å se i alle tilfeller.

 

AtW

9529237[/snapback]

Kan vel si at jeg var i overkant optimistisk, men det meste av problemene skyldes vel at Intel valgte å fokusere sin R&D kapasitet mot x86 for å kontre AMD K8 arkitekturen som sto i fare for å frarøve dem melkekua. Kan jo forstå den avgjørelsen, men ser jo også at grunnet suksessen til Core2 så har Itanium gjen fått godt med prosjekter (Tukwila, Poulson og Kitson er i allefall kjent). Elles så er vel økningen i Itanium salg rimelig stødige så jeg ser ikke bort fra at det fortsatt kan bli hoved produktet fra Intel til servere. En trend du også kan merke deg er at 4 til 16 sokkel maskiner har hatt flat eller negativ vekst mens 32++ sokkel maskiner gjøre det bra, mye grunnet virtualisering. Hvis en bedrift kjøper en 64 sokkel Itanium maskin og virtualiserer tilsvarende 100 til 200 to og fire sokkel maskiner inn i den, har Itanium gjort et godt innhogg i små og mellomstore x86 servere eller har den blitt presset opp i "kun de høyere segmentene" da??

Endret av Anders Jensen
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...