Gå til innhold

Tukwila har 2 milliarder transistorer


Anbefalte innlegg

Videoannonse
Annonse

2 milliarder var imponerende da Tukwila skulle vært lansert for ca 2 år siden. 2 milliarder transistorer er også ganske imponerende for en 65nm chip. Det er også noe mer imponerende å lage en stor CPU enn en stor GPU. GPU er stort sett bare repetering av små enheter. Videre er det mindre imponerende med flash og DRAM brikker med flere milliarder devices per chip enn det er med tilsvarende antall på en GPU. Igjen fordi det bare er repetering av små enheter og håndtering av feil er trivielt sammenlignet med enheter av større kompleksitet.

 

Tukwila føyer seg inn i Intel sin tradisjon med å skuffe stort ved hver lansering av Itanium. "Kanskje neste gang" begynner å bli en slitt klisje...

 

Det er imidlertid lyspunkter her. Nå vil ikke Itanium ha en underlegen maskin topologi i forhold til konkurrentene. Faktisk er det en av de beste, om ikke den beste. Det hjelper mye. Så får vi håpe Poulson blir en oppgradering av selve CPU kjernene. De som er i Tukwila er nesten bare en krympet versjon av de som var i McKinley prosessoren høsten 2002. Vi snakker altså om et CPU design som ble påbegynt for vel 10 år siden. Det har skjedd en del siden da.

 

Håper også det stemmer at Poulson "bare" får 8 kjerner. De fleste andre vil nok måtte ty til 12-16 kjerner for å utnytte transistor og effekt budsjettet effektivt på 32nm CMOS. IA64 arkitekturen kan bli nøkkelen til å levere samme ytelse som andre, men på et mindre antall CPU kjerner, hvilket vil bli ekstremt ettertraktet etterhvert som many-core paradigmet går bananas i god gammeldags MHz-race stil.

Endret av Anders Jensen
Lenke til kommentar
Synes ikke 2 milliarder var så svimlende. GPUen på Radeon HD 5870 har 2,15 milliarder, mens neste genrasjon fra Nvidia får 3 milliarder.

 

Som Anders Jensen sier, antallet er ikke alt.

 

Ti sykler hjelper ikke når det du trenger er en bil (som er noe mer komplisert).

 

 

Off topic:

Må bare takke deg, Anders Jensen :)

Dine kommentarer er som regel bedre enn artiklen du kommenterer på, og det er alltid en fryd å lese hva du skriver :)

Lenke til kommentar
2 milliarder var imponerende da Tukwila skulle vært lansert for ca 2 år siden. 2 milliarder transistorer er også ganske imponerende for en 65nm chip. Det er også noe mer imponerende å lage en stor CPU enn en stor GPU. GPU er stort sett bare repetering av små enheter. Videre er det mindre imponerende med flash og DRAM brikker med flere milliarder devices per chip enn det er med tilsvarende antall på en GPU. Igjen fordi det bare er repetering av små enheter og håndtering av feil er trivielt sammenlignet med enheter av større kompleksitet.

Tar det poenget, men man får ikke mye prosesseringskraft av flash og DRAM da. :) Har du noe anelse om hvor stor Tukwila-chipen er i fysisk størrelse?

Lenke til kommentar

Nei det går trått i low-end når en ikke leverer på høyde med siste skrik til enhver tid. Økonomisk går det vel forbausende bra i high-end markedet. Større enn SPARC allerede og snart forbi Power, men det hjelper jo lite for oss som vil fikle selv, eller har du en mill å låne meg uten sikring? :)

 

Har fortsatt troen på Poulson da.. to designteam nå akkurat som for x86. Da er fuckup sjansen mindre.

Lenke til kommentar

Siden ytelse kommer i to basisformer, gjennomstrømning og responstid, og små kjerner alltid vil være best på gjennomstrømning og store alltid best på responstid, så vil jeg vel heller snu på flisa og spørre om de som havner i midten har livets rett. De vil ikke være gode til noe som helst hvis de blir satt opp mot en hybrid løsning med flere store kjerner og flere små kjerner. Slik det er i dag er konkurransen enten store kjerner eller små kjerner. Ingen leverer begge deler så disse middelhavsfarerne er tilsynelatende det ideelle. Dette vil naturlig nok endre seg om ikke lenge. Et alternativ er å clustre sammen to typer maskiner. F.eks store backend SMP maskiner med store kjerner og klynger av små servere med mindre kjerner forran. Det er jo gjerne det en gjør i dag.

 

Så mitt tips er så definitivt at store kjerner har en fremtid. Om en legger til grunn Mores lov (dobling av throughput hver 18. mnd., litt fortolket) og Amdahls lov (seriell komponent dominerer en hver workload når du skalerer opp systemet mye), så kan en trekke den konklusjonen at alt som ikke er 100% parallelt kun kan kjøre på store kjerner en gang i fremtiden. Ingenting er 100% parallelt.. Do the math.

 

Nå skal det sies at en må forstå konsekvensene av både Amdahls lov og Gustafsons lov for å få et riktig bilde, men en må også kompensere for kommunikasjons overhead og det faktum at en kan ikke bare gjøre alle datasett større for å få bedre skalering og tro brukerne er fornøyd med det. Folk vil ha værvarselet basert på oppdaterte målinger på dagsrevyen kl 1900, ikke et 1000 ganger mer nøyaktig værvarsel neste dag. Da kan du titte ut vinduet isteden.

Endret av Anders Jensen
Lenke til kommentar

Jeg er veldig enig med deg i logikken. Det jeg forsåvidt utelot å trekke inn i sted er hvordan softwareindustrien tvinger kunder til kjøpe etter cpu-generasjoner (IBM sine PVU-poeng f.eks).

 

Når man så har endt opp med en parallell "stormaskin" som yter veldig bra en periode, så er det ikke lange tiden før småmaskinene har tatt igjen mye av forspranget og fra da av har man mulighet til å oppgradere bladene med nyere og nyere generasjoner helt til neste brikkesettoppgradering eller sokkelbytte - og selv da er kostnadene på å kaste et blad til 50k ingenting mot investeringene som ligger til grunn for en ny "stormaskin".

 

Spørsmålet mitt da er vel egentlig sett i sammenhengen pris/ytelse. Kan store CPUer forsvare en langt høyere kost når det alltid bare er et kort tidsspørsmål før du kan bytte ut "små" CPUene dine i eksisterende hardware for å matche ytelsen?

 

Hva er det som gjør at disse store CPUene skal holde unna?

Lenke til kommentar

yno: jeg har ikke noe godt svar. Jeg tror det vil bli bestemt av markeder og "politikk" innad i disse. Ikke så mye av teknologi, med mindre effektivitet blir det dominerende fokus området. Med cloud paradigmet kan det godt bli en realitet siden datakraft blir en commodity.

 

ze5400/wim: takk så mye. Kanskje jeg skal be diskusjon.no betale meg per innlegg. :p Jeg har uansett en litt rolig overgangsfase på jobben nå så jeg kan skrive litt lengre enn vanlig, men det vil nok bli ganske så stille om en liten måneds tid fra denne kanten.

Lenke til kommentar
  • 4 uker senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...