Gå til innhold

Intel og TSMC tester 32 nm


Anbefalte innlegg

Videoannonse
Annonse

Kan noen forklare hvordan tallet i nm har med arealet av en transistor, eller enklere, hvordan du regner prosentvis hvor mye mindre en gitt prosessor blir etter en krympeprosess?

 

Kan det stemme at en prosessor om 15 år på 32nm vil være gigantiske 50 000 mm^2 ? Tror dere dette er realistisk om det sier stopp etter 32nm med dagens prosessorprosess?

Lenke til kommentar
AMD byttet ut 90 nm- med 65 nm-teknikk denne uken og går trolig ned på 45 nm i løpet av 2008 - noen måneder etter Intel.

Husk at produksjonslinja bruker ca 3 måneder å produsere wafere, og brikkene som lanseres for salg er neppe første revisjon. Sansynligvis var alt utstyret for 65nm på plass og klart til å brukes allerede for ca 6-9 måneder siden.

Lenke til kommentar
Kan noen forklare hvordan tallet i nm har med arealet av en transistor, eller enklere, hvordan du regner prosentvis hvor mye mindre en gitt prosessor blir etter en krympeprosess?

Ganske forenklet forklart er tallet i antall nanometer en lengde. Ofte forklares lengden som "Den minste ledningsbredden i en prosessor" eller "de minste detaljene i en prosessor". Det er litt folkelig forklart og ikke helt korrekt, men det gir en god pekepinn på omtrentlige størrelser og størrelseforhold i forhold til eldre produksjonsteknikker.

 

Fortsatt litt forenklet forklart, krymper man prosessoren i både bredde og lengde. Krymper man fra 90nm til 65nm og og vi for enkelhets skyld har å gjøre med en brikke som er 9,0 * 9,0 mm så krympes den til 6,5mm * 6,5mm. Arealet reduseres altså fra 81 til 42,25 mm^2. Eller rettere sagt nesten en halvering i arealet. Tommelfingerregelen er at hver krympesteg gir omtrent halvert areal. Dette gjelder for hele rekka med krympinger: 1,0 mikron -> 0,7 mikron -> 0,5 mikron -> 0,35 mikron -> 0,25 mikron -> 0,18 mikron -> 130 nm -> 90 nm -> 65 nm -> 45 nm -> 32 nm -> 22 nm -> 16 nm -> 11 nm -> 8 nm osv. Halvert areal betyr tre ting:

1. Man kan produsere dobbelt så mange brikker på det samme arealet. Eller

2. man kan bruke dobbelt så mange transistorer på hver brikke. Eller

3. man kan gjøre et kompromiss og utnytte litt av både 1 og 2.

I praksis brukes nesten bare alternativ 2.

 

Kan det stemme at en prosessor om 15 år på 32nm vil være gigantiske 50 000 mm^2 ? Tror dere dette er realistisk om det sier stopp etter 32nm med dagens prosessorprosess?

7436399[/snapback]

5 kvadratdesimeter (22*22cm) tror jeg over hodet ikke er realistisk. En sånn brikke vil koste sinnsykt mye og være utrolig sjør, effektproduserende og upraktisk. Her er det nok forutsetningene som feiler. Altså at dataverdens mest mistolkede sitat, moores lov, holder stand i 15 år dersom produksjonsprosessene ikke utvikler seg.

 

Men jeg tror nok arealet på brikkene kommer til å vokse noe når parallellisering (og mulighetene for bedre redundans og yields) øker. Det ser man allerede i dag, når GPUer kan selges til et par tusenlapper med enorme 400 mm^2 areal og har gode yields til tross for relativt nye produksjonsprosesser.

Lenke til kommentar

EDIT: Heh, hvor fikk jeg det fra at det er 100 millimeter i en centimeter? Jeg tenkte på en kjerne på 2.2*2.2 cm og ikke 22*22 som klart er uaktuellt.

 

Takk for bedre forklaring Simen1.

 

Regner jeg rett når det da blir kjerner på omtrent 3x3 cm (~1000 mm^2) i 2015 med 22nm prosess som artikkelen nevner?

Og over 4x4 cm (~2000 mm^2) om 15 år på en 8nm prosess? For meg høres det ut som de håper for mye om de planlegger en krymping hver 24 måned de siste prosessene.

 

Dette forutsetter selvsagt at de økonomiske aspektene holder seg rimelig statiske. :hmm:

Endret av JohndoeMAKT
Lenke til kommentar

Moore's lov holder nok i 10-15 år til, men det er mye annet som ikke vil følge trenden. F.eks er det allerede i dag slik at en kan legge flere transistorer på en brikke enn hva en har mulighet til å slå på samtidig pga effektforbruk. F.eks om alle transistorene ble brukt til å implementere prosessor kjerner uten cache ville brikkene blitt veldig effektbegrenset. Selve kjernearkitekturen skalerer ikke særlig bra lengre heller. De har begynt å få så store bypass nettverk og vinduer, altså "oppslagstabeller over programutførelses-status" at dette begrenser skaleringen på en slik måte at tilføring av flere transistorer (større tabeller) ofte gjør vondt verre.

 

Nå er jo cache kanskje et av de viktigste virkemidlene til å få høy ytelse per i dag så prioriteringen blir gjerne ganske opplagt.

 

Når det gjelder omregning av arealer med krympende nodestørelse så er det litt vrient. Nodestørrelsen beskriver bare en av flere hundre størelser i en CMOS prosess, og i dag er det også diskutabelt om det er den viktigste størrelsen. Det er imidlertid ofte sånn at de andre størrelsene gjerne skaleres ned tilsvarende og dermed gjelder vanlig areal regne regler. Bare anta at både lengde og bredde er redusert tilsvarende. En tommelfingerregel er vel at arealet i praksis reduseres med litt under halvparten mellom hver nodestørrelse, mens mattematikken skulle tilsi nokså nøyaktig en halvering. Årsaken er gjerne at ikke alle kretser kan skaleres ned og at noe kan være lagt til. Det finnes også eksempler på at designerne har brukt mer areal for å øke ytelsen ved å spre hotspots eller ved korte ned en critical path slik at omliggende kretser blir forskjøvet litt og dermed tar opp mer plass eller at det rett og slett blir små tomrom. Ofte blir sistnevnte optimalisert bort i senere stepinger.

Endret av Anders Jensen
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...