Gå til innhold

32 nm-teknologi i 2009


Anbefalte innlegg

Videoannonse
Annonse

Lurer på om det ikke på sikt vil bli nødvendig med å legge produksjonen et egnet "L-punkt", alltså i ekstrem microgravitasjon.

 

For at dette skal bli mulig, må først og fremst tillgangen til verdensrommet bli bedre og billigere enn det er nå, sammtidig som det vil kreves store framsteg innen automatiserte prosesser.

 

Så med slike enorme utfordringer, så er det ikke sikkert at dette noengang vil bli aktuelt, kanskje med unttak av forskning og spesielle formål.

 

Fordelen vil jo være tilnærmet 0 gravitasjonspåvirkning på prosessen samt tillnærmet vibrasjonsløst miljø. Dersom man også legger "lokalet" på steder med lav konsentrasjon av partikkler, både pga. kollisjons-vibrasjoner og faren for "støv" og "gass", så vil jeg tro at man kan komme mye lengre enn ved produksjon på jorden.

 

Det sagt, så er jeg vel heller i tvil om at det noen gang vil bli gjort.. Før nødvendig teknologi er utviklet, så har vi sikkert gått over til kvante-maskiner eller noe liknende uansett.. og OM det blir noe av et slikt konsept, så blir det vel neppe før 50 - 80 år fra nå.. men den som lever vil få se!

Lenke til kommentar
20-30 nm er den fysiske begrensningen før alt kortslutter seg selv. Så det er nok store krefter i sving for å prøve å finne ut hva i alle dager man skal ta seg til om 10 år.

5245497[/snapback]

22nm transistorer med gode karakteristikker er allerede demonstrert. Det anntas at 22nm eller 16nm blir den minste dimensjonen som er egnet for masseproduksjon, men det er nok mulig å gå litt lengre om en ikke skal masseprodusere.

 

Det blir veldig spennende å se hva som skjer når miniatyriseringen stagnerer. En mulighet er å legge transistorene i flere lag slik at avstandene mellom dem reduseres vesentlig. Dette vil imidlertid også bidra til å øke effekttettheten. Helt nye produksjonsprinsipper er jo også en mulighet, men det er per i dag ingen klare kandidater. Nanorør er kanskje det som er mest hypet som mulig arvtaker. Uansett er det vel på tide å ta et veldig kritisk blikk på hva transistorene brukes til. Det er veldig mye å hente på å effektivisere datamaskinarkitekturen. Det kan være alt fra tettere integrering (SoC/SoC -RAM), nye kjernearkitekturer og nye maskinspråk (Instruction Set Architecture, ISA). Siden flerkjerne maskiner blir vanlig vil det også bli mye fokus på hvordan disse kommuniserer og om de er homogene/heterogene, general purpose/special purpose. Selv er jeg litt skeptisk til overdrevent bruk av heterogene og special purpose kjerner, men dette er uten tvil fra et rent teoretisk perspektiv den mest effektive måten å bruke transistorene på. Det spørs bare om en klarer skrive effektiv programvare for den slags systemer.

Endret av Anders Jensen
Lenke til kommentar
Lurer på om det ikke på sikt vil bli nødvendig med å legge produksjonen et egnet "L-punkt", alltså i ekstrem microgravitasjon.

 

For at dette skal bli mulig, må først og fremst tillgangen til verdensrommet bli bedre og billigere enn det er nå, sammtidig som det vil kreves store framsteg innen automatiserte prosesser.

 

Skal ikke se bort ifra at Intel/AMD bygger fabrikker i bane rundt eller på månen i "nærmeste" fremtid da :p....

Lenke til kommentar
Er jo bare å slenge på enda flere kjerner...  :thumbup:

 

Er plass til mange kjerner på en 32nm CPU...  :)

5245587[/snapback]

Jepp, dersom vi antar en ren lineær nedskalering så vil 32nm gi 8 ganger så mye plass på like store brikker som 90nm. Det vil med andre ord bli mulig å ha en kjerne på størrelse med Athlon X2 som har 8 stk K8-kjerner samt et par nvidia geforce 7800GTX-kjerner, en PhysX PPU, en southbridge, noen SATA-kontrollere, noen Gbit LAN-kontrollere og litt annet smårusk inne på en eneste kjerne. Samtidig vil man kunne få 4GiB ram på en eneste liten brikke og 32 GiB flashdrive på ennå en brikke. Altså færre brikker enn det vanlige mobiltelefoner har.

 

Personlig tror jeg vi vil få flere forskjellige kjerner på en brikke (inhomogene kjerner) ala Cell, med innebygde minnekontrollere, southbridge, GPGPU'er og en rekke andre ting man før måtte ha spredt utover et helt hovedkort og tilleggskort. Nye arkitekturer kan bli en del av nyvinningene, men det kommer mye an på hvor tilpassningsdyktig x86 viser seg å bli, samt hvor stor andel av kode som blir gode gamle x86 og hvor mye som blir andre typer kode som kjører på andre deler av kjernen. Inhomogene kjerner vil gjør at man kan kombinere god througput på samme kjerne som har høy ytelse per tråd. Det blir nok en utfordring for programvareindustrien å programmere for å utnytte begge deler optimalt. Prisforskjellene vil avhenge av antall fungerende enheter per brikke siden det vil bli økt bruk av redundans. F.eks vis et par GPU-pipelines og en K8-kjerne ikke fungerer så kan disse slåes av og selges som et billigere produkt.

 

Og selvfølgelig mindre effektbruk, mindre fysisk størrelse og flere egenskaper i en og samme brikke.

Endret av Simen1
Lenke til kommentar

En annen ting er jo hva markedet etterspør. Utviklingen vil stagnere om ikke markedet etterspør mer. Jeg ser for meg at markedet kan minke på flere områder på grunn av manglende etterspørsel, blandt annet etterspørselen etter mer ytelse på hjemmedatamaskiner tror jeg kan synke fordi stadig flere bruksområder får nok ytelse. F.eks har en rekke enkle oppgaver hadd god nok ytelse siden 90-tallet. Det er fortsatt mange hjem med begrensede bruksområder som har PC'er fra 90-tallet som yter bra i disse oppgavene.

 

Per i dag er det stort sett bare spill og avansert videobehandling som etterspør mer ytelse på hjemmedatamaskiner. Vil disse bruksområdenes sult etter ytelse mettes innen 2009? Hva vil det da bli igjen som skal drive ytelseracet på desktop videre?

 

(NB. Legg merke til at jeg holder blandt annet HPC utenfor dette)

Lenke til kommentar
En annen ting er jo hva markedet etterspør. Utviklingen vil stagnere om ikke markedet etterspør mer. Jeg ser for meg at markedet kan minke på flere områder på grunn av manglende etterspørsel, blandt annet etterspørselen etter mer ytelse på hjemmedatamaskiner tror jeg kan synke fordi stadig flere bruksområder får nok ytelse. F.eks har en rekke enkle oppgaver hadd god nok ytelse siden 90-tallet. Det er fortsatt mange hjem med begrensede bruksområder som har PC'er fra 90-tallet som yter bra i disse oppgavene.

 

Per i dag er det stort sett bare spill og avansert videobehandling som etterspør mer ytelse på hjemmedatamaskiner. Vil disse bruksområdenes sult etter ytelse mettes innen 2009? Hva vil det da bli igjen som skal drive ytelseracet på desktop videre?

 

(NB. Legg merke til at jeg holder blandt annet HPC utenfor dette)

5245988[/snapback]

 

På desktop er jeg enig, men for menneskeheten generellt så er det i høyeste grad nyttig med mer prosesseringskraft, og man kan jo godt se for seg nye hjemmemarkeder dukke opp etthvert, feks personlige roboter, mer intelligente biler o.l. Eller på litt kortere sikt, maskiner som er bedre til å ta inn inntrykk fra utenomverdenen og lære seg ønsket oppførsel.

 

AtW

Lenke til kommentar

En ting som kan drive ytelseskravet oppover er Vista. Mange av de som kjøper pc på elkøp kommer til og få det med på kjøpet. Da bir det nok litt trykk på ytelsen igjen.

 

Videre så kommer stemmegjnennkjenning til og bli noe som drar mye kraft og som mange kommet til og ønske seg (hadde det ikke vært kult og kunne skrive en stil eller et brev bare ved og diktere det inn i en mikrofon?).

 

Vi har også Entusiastene som aldri får nok power.

 

Det skal også sies at når netttilgangen blir bra nokk (les nS ping og GiB overføring) kan det henne at vanelige folk kommer til og leie kraft og plass hoss en server, og bare bruker en tyn klient hjemme.

Lenke til kommentar
20-30 nm er den fysiske begrensningen før alt kortslutter seg selv. Så det er nok store krefter i sving for å prøve å finne ut hva i alle dager man skal ta seg til om 10 år.

5245497[/snapback]

Kanskje på tide å begynne å krympe andre ting enn prosessoren kanskje? Ser man på et hvilket som helst hovedkort, fra Micro-ATX til VIA Mini-ITX og Intel ECX, så er det stort rom for forbedringer og krymping. Apple gikk foran alle de andre når de introduserte sin Mini-Mac, men den kan selvsagt også forbedres kraftig vha. krymping. Det jeg altså prøver å si er at en datamaskin faktisk består av mer enn en prosessor, den består av en rekke andre komponenter som ikke har blitt krympet nevneverdig de siste 10 årene. Det er på tide at markedslederne tar ansvar og begynner å tenke helhetlig, altså på datamaskiner, fremfor bare enkeltkomponenter slik som i dag. Med en 16nm-produksjonsteknikk så burde det være mulig å få plass til en superdatamaskin i en bærbar, eller en kraftig PC i en fjernkontroll.

Endret av snorreh
Lenke til kommentar
Er jo bare å slenge på enda flere kjerner...  :thumbup:

 

Er plass til mange kjerner på en 32nm CPU...  :)

5245587[/snapback]

Jepp, dersom vi antar en ren lineær nedskalering så vil 32nm gi 8 ganger så mye plass på like store brikker som 90nm. Det vil med andre ord bli mulig å ha en kjerne på størrelse med Athlon X2 som har 8 stk K8-kjerner samt et par nvidia geforce 7800GTX-kjerner, en PhysX PPU, en southbridge, noen SATA-kontrollere, noen Gbit LAN-kontrollere og litt annet smårusk inne på en eneste kjerne. Samtidig vil man kunne få 4GiB ram på en eneste liten brikke og 32 GiB flashdrive på ennå en brikke. Altså færre brikker enn det vanlige mobiltelefoner har.

 

Personlig tror jeg vi vil få flere forskjellige kjerner på en brikke (inhomogene kjerner) ala Cell, med innebygde minnekontrollere, southbridge, GPGPU'er og en rekke andre ting man før måtte ha spredt utover et helt hovedkort og tilleggskort. Nye arkitekturer kan bli en del av nyvinningene, men det kommer mye an på hvor tilpassningsdyktig x86 viser seg å bli, samt hvor stor andel av kode som blir gode gamle x86 og hvor mye som blir andre typer kode som kjører på andre deler av kjernen. Inhomogene kjerner vil gjør at man kan kombinere god througput på samme kjerne som har høy ytelse per tråd. Det blir nok en utfordring for programvareindustrien å programmere for å utnytte begge deler optimalt. Prisforskjellene vil avhenge av antall fungerende enheter per brikke siden det vil bli økt bruk av redundans. F.eks vis et par GPU-pipelines og en K8-kjerne ikke fungerer så kan disse slåes av og selges som et billigere produkt.

 

Og selvfølgelig mindre effektbruk, mindre fysisk størrelse og flere egenskaper i en og samme brikke.

5245872[/snapback]

Ja, du er absolutt inne på noe her. Jeg tror også at utviklingen fremover vil bli stadig høyere fokus på integrering, først med flere kjerner og etterhvert som den ballongen sprekker så vil det trolig bli et større fokus på helheten. Drømmen om et System-On-Chip (SoC) lever fortsatt i beste velgående :)

Lenke til kommentar
Med en 16nm-produksjonsteknikk så burde det være mulig å få plass til en superdatamaskin i en bærbar, eller en kraftig PC i en fjernkontroll.

Man vil aldri få en superdatamaskin i en bærbar. Rett og slett fordi at når man endelig får stappet kraft inn i en bærbar finnes det andre ting som er mye suprere. Og dermed er ikke bærbaren super lenger. Alternativt kan du si at Pc'en du har under pulten (eller på fanget) i dag allerede er super (sett med en 70-talls geeks øyne).

 

En annen ting er jo hva markedet etterspør. Utviklingen vil stagnere om ikke markedet etterspør mer. Jeg ser for meg at markedet kan minke på flere områder på grunn av manglende etterspørsel, blandt annet etterspørselen etter mer ytelse på hjemmedatamaskiner tror jeg kan synke fordi stadig flere bruksområder får nok ytelse.

Vi er da mennesker, vi etterspør alltid mer :) Ny teknologi gir bare muligheter til å realisere ting vi ikke etterspør i dag fordi vi ikke ser på dem som realistiske. Det kan godt hende etterspørselen etter det vi i dag kaller desktops synker, men isåfall er det nok fordi de blir erstattet av en bedre løsning.

Lenke til kommentar
Lurer på om det ikke på sikt vil bli nødvendig med å legge produksjonen et egnet "L-punkt", alltså i ekstrem microgravitasjon. (...)

 

Fordelen vil jo være tilnærmet 0 gravitasjonspåvirkning på prosessen samt tillnærmet vibrasjonsløst miljø. Dersom man også legger "lokalet" på steder med lav konsentrasjon av partikkler, både pga. kollisjons-vibrasjoner og faren for "støv" og "gass", så vil jeg tro at man kan komme mye lengre enn ved produksjon på jorden. (...)

5245575[/snapback]

Kan jo for ordens skyld tilføye at "L-punkter" eller Lagrange-punkter (punkter der to himmellegemer oppveier hverandres gravitasjon) er steder hvor faren for kollisjoner med partikler og større ting er svært stor.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...