Gå til innhold

Ingen rimelig Nehalem i år


Anbefalte innlegg

Videoannonse
Annonse
Ingen rimelig Nehalem i år

Det vet vi. Alle tre Nehalem-modellene som er ventet i år skal bli ekstrem-modeller på 130 watt.

Det kan tenkes at tilgjengeligheten for de blir som tilgjengeligheten for 45nm-modellene QX9650, Q9550 og Q9450 i 2007. Dvs. kun den dyreste blir mulig å få tak i de første månedene. Hvis det ikke siktes ennå høyere: Dagens tre råeste QX-proessorer for desktop har følgende veiledende priser: QX9650: 999$, QX9770: 1399$, QX9775: 1499$.

 

Arkitekturen skal i følge Intel være tre ganger så rask som dagens løsning.

Den påstanden er plukket fra hverandre før. 3 ganger er konstruerte spesialtilfeller. Det riktige skal derfor være inntil 3 ganger så rask. Tidlige lekkede resultater tyder på at ytelsen er økt med ca 20-40% på vanlige oppgaver.

 

Til neste år forventes det også at Intel beveger seg ned på 32 nm produksjonsteknologi samt lansering av åttekjernearkitektur. I forbindelse med Nehalem kommer det også nye prosessorsokler, nemlig LGA1366 og LGA1160.

Det stemmer ikke. Det er ikke i forbindelse med 32nm at de nye soklene kommer. Det er i forbindelse med Nehalem på 45nm at de kommer.

Lenke til kommentar

Jeg er mer bekymret over at de drøyer med 32nm platformen uten at jeg vet så mye om hva det innebærer sånn rent ytelsesmessig.

 

Men det er jo kjekt å vite at de lanserer ekstremutgaven først da, for den SKAL jeg ha uansett...

 

EDIT:

Det stemmer ikke. Det er ikke i forbindelse med 32nm at de nye soklene kommer. Det er i forbindelse med Nehalem på 45nm at de kommer.

 

Takk... for den oppklaringen.... men bare et spørsmål...

 

Hvor stor er forskjellen på 45nm og 32nm i bruk egentlig

Endret av R@ge
Lenke til kommentar
Jeg er mer bekymret over at de drøyer med 32mm platformen uten at jeg vet så mye om hva det innebærer sånn rent ytelsesmessig.

Jeg tror ikke de drøyer med 32nm. I følge deres egen tic toc-strategi har de lenge planlagt å krympe annenhvert år og lage en ny kjernedesign årene i mellom hver krymping.

 

intelticktockqy5.jpg

 

Hvor stor er forskjellen på 45nm og 32nm i bruk egentlig

13 nanometer :p

 

Men seriøst: Det får vi først vite når begge deler er lansert. Hverken ytelse eller effektforbruk kan leses ut fra antall nanometer produksjonsteknikk. Det er veldig mye annet som bestemmer de tingene.

Lenke til kommentar
Jeg er mer bekymret over at de drøyer med 32nm platformen uten at jeg vet så mye om hva det innebærer sånn rent ytelsesmessig.
Vel... Det er jo på ingen måte noe overraskende det. De har tid til det nå som AMD har havnet litt bak i løypa. Og jo lenger de kan selge "gammel" teknologi, jo mer tjener de på den.

(Gammel i hermetegn fordi den er jo strengt tatt ikke gammel, det er bare ikke det aller nyeste de har klart å finne opp)

Lenke til kommentar
Hvor stor er forskjellen på 45nm og 32nm i bruk egentlig

Med litt regning fant jeg ut av at de bør få plass til dobbelt så mange (1:1,98) transistorer på samme areal med 32 nm som med 45 nm. Omtrent samme forskjell som fra 65 nm til 45 nm (1:2,09) og 90 nm til 65 nm (1:1,92).

 

Men dette er bare antall transistorer de for plass til på samme areal, kan jo ikke si hva det faktisk vil bety for ytelsen.

Endret av Jonern
Lenke til kommentar

Er det slik at det vil følge med denne grafikk-biten i alle modeller? Kan ikke tenke meg at denne i så fall kan konkurrere med de beste separate grafikkortene. I så fall er det teit å inkludere det i high-end CPUene. Eller er det bare ment for å hjelpe GPU? Ser ikke vits i å kjøpe noe hvor jeg også må betale for en ubrukelig del.

Lenke til kommentar

Jonern: Størrelsen i antall nanometer er litt avrundet. Man kan godt si at det blir plass til dobbelt så mye på samme areal for hvert trinn. Det gjelder hele rekka med trinn:

1000-700-500-350-250-180-130-90-65-45-32-22-

 

I tilfellet krymping fra Nehalem 45nm til Westmere 32nm så skal det bli en ganske ren krymping (akkurat som conroe 65nm til penryn 45nm). Det vil si at vi neppe får noen nevneverdige ytelseforbedringer på samme klokkefrekvens. Det man vil få er trolig økt klokkefrekvens. Effektforbruket vil nok forbli omtrent som i dag. (~130 watt for toppmodellene og 65-95 watt for de mer normale modellene)

 

Er det slik at det vil følge med denne grafikk-biten i alle modeller? Kan ikke tenke meg at denne i så fall kan konkurrere med de beste separate grafikkortene. I så fall er det teit å inkludere det i high-end CPUene. Eller er det bare ment for å hjelpe GPU? Ser ikke vits i å kjøpe noe hvor jeg også må betale for en ubrukelig del.

Det blir trolig kun å finne i prosessorer med LGA1160 og LGA989. Om det fysisk vil finnes på prosessorer med LGA1366 og LGA1567 men være avslått er usikkert.

 

Forøvrig handler ikke alt om spill. Det er mange markedssegmenter som vil ha høy CPU-ytelse uten å behøve høy GPU-ytelse samtidig.

Lenke til kommentar

Intel vil gjerne kreve blodprisen til å starte med, og dette kommer nok av manglende konkurranse og udugelige AMD-CPU.

 

Men AMD har flere planer gående, og hvis de klarer å lansere noe "dugelig" for massemarkedet (noe som er ikke helt utelukket), da er det godt mulige at Intel blir nødt til å slippe billig morddelene raskere. Det er lov å håpe! :p

Endret av Sam_Oslo
Lenke til kommentar

Det er helt naturlig, og vanlig (i alle bransjer?) at ny teknologi kommer inn på toppmodellene, og så jobber seg nedover mot rimligere produkter etterhvert. Ser ikke hvordan du kopler dette direkte til hvordan AMD gjør det for tiden.

 

Forøvrig leverer vel AMD ganske mye " "dugelig" for massemarkedet "?

Lenke til kommentar

dette er egentlig helt genialt. kjøper man en cpu til 8000kr skal man føle at man får noe igjen for det! jeg kjøper gjerne en cpu til 8000kr så lenge det er toppmodell i minst ett år. hadde følt meg "lurt" hvis det kom en bedre og fetere cpu til 9000kr 1mnd etterpå.

Lenke til kommentar
Det er helt naturlig, og vanlig (i alle bransjer?) at ny teknologi kommer inn på toppmodellene, og så jobber seg nedover mot rimligere produkter etterhvert. Ser ikke hvordan du kopler dette direkte til hvordan AMD gjør det for tiden.

 

Forøvrig leverer vel AMD ganske mye " "dugelig" for massemarkedet "?

Det er helt naturlig, og vanlig (i alle bransjer?) at ny teknologi kommer inn for å tjene penger. De pleier å slipper den modellen som tjener mest penger. Hvordan jag har koblet AMD til dette? vel, bare ta en tit på hva som skjedde med Nvidia, det øyeblikket ATI lanserte 4000-serien raste alle prisene hos Nvidia fra topp til bunn. Det samme vil skje hvis AMD kan lansere noe konkurransedyktig CPU.

Lenke til kommentar

Artig å endelig høre Intel si at AMD sitt HTT konsept er 3 ganger raskere enn dagens løsning :p Nei, jeg vil ikke ha dette i år jeg venter til både bussarkitektur, chippsett og minnekontrollere har modnet litt. Sen høst 2009, kanskje... juletider.. muligens.

 

Aprop produksjonsprosess.

1000-700-500-350-250-180-130-90-65-45-32-22-16

Men Intel har uttalt at de vil støte på en del hindringer ved 16nm, så man får se. Kan hende det blir mange flere trinn fra 32 ned mot 16.

Endret av Theo343
Lenke til kommentar

Jeg lurer veldig på hvor mye mindre nm det går an å få det til, det må jo bli en forandring i den prosessen etterhvert. Det gir for meg mening i den artikkelen om at intel tror det vil bli mange flere kjerner på prosessorer framover. Men for all del det må gjerne gå i den retning i at de har kanaler på under atomet, men hvordan i huleste det skal gå til..

 

Men OKAY, la oss si at det stopper på 16nm for ren morro skyld. Og at man ikke skal ha flere kjerner på prosessoren,(om det da har kommet på en 8,12,16,20 blir ikke egentlig relevant her) hvordan kan man da videre øke ytelsen *per* kjerne? Jeg har ikke hørt/lest noen diskusjoner om det , men kanskje vi kan ta det her etterhvert.

 

Kort sagt, når vil ytelsen stoppe og øke for en enkelt kjerne?

Lenke til kommentar
Aprop produksjonsprosess.

1000-700-500-350-250-180-130-90-65-45-32-22-16

Men Intel har uttalt at de vil støte på en del hindringer ved 16nm, så man får se. Kan hende det blir mange flere trinn fra 32 ned mot 16.

Nå vet jeg ikke så mye om de ventede hindringene men jeg blir ikke overrasket om det blir utsettelser allerede ved 22nm og de må skrinlegge planene om 16nm.

 

Kort sagt, når vil ytelsen stoppe og øke for en enkelt kjerne?

Ikke i overskuelig framtid. Utviklingen vil bare ta nye veier. Smartere oppbygging av kjernene, bygging i høyden, stacking, nye instruksjonssett, SMT, kombinering av mer ulike typer kjerner, raskere klokking som følge av ny kjøleteknologi, toleranse for høyere spenninger, raskere interne busser som følge av fiberoptikk osv.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...