Gå til innhold

Tusenkjerneprosessor om 15 år?


Anbefalte innlegg

Jeg synes det er litt trist å lese om slikt.

 

Blir omtrent som alle de andre "fremtidsspådomene" vi hadde for mange tiår siden.

 

Future%20Computer.jpg

 

 

Men for all del, nyheten om at de kan prøve å bytte ut koppertrådene med lysimpulser høres spennende ut. :)

Han bomma jo heftig, kanskje vi har mye bedre teknologi enn som så om femten år...

Lenke til kommentar
Videoannonse
Annonse
Selve designet baserer seg på å erstatte koppertrådene med lysimpulser slik at man kan overføre 100 ganger raskere og bare bruke 1/10 av energien.

Det er viktig å merke seg at det ikke er snakk om å erstatte kobbertråder på generell basis, men om å erstatte noen få kobbertråder enkelte plasser.

 

Ett av problemene med optiske fibre er at de ikke egner seg til bruk internt på brikker siden de er for plasskrevende. Lys har en bølgelengde fra ca 400 nm og oppover. Siden lys ikke kan ledes gjennom smalere fibre enn bølgelengden så må lederne være minst 400 nm brede. Elektriske ledere er allerede nede i 45 nm bredde.

 

Et annet problem er varme. Det nytter lite å ha koblingsteknologien til å stappe 1000 prosessorkjerner inn på et blad (størrelse med en bærbar PC) så lenge det betyr at man også må fjerne varme fra 1000 prosessorkjerner. Varme begrenser mulig prosessortetthet, uansett koblingsteknologi.

 

Slike prosessorer skal kunne danne grunnlaget for superdatamaskiner på størrelse med en bærbar PC.

Superdatamaskiner krymper neppe til den størrelsen. De som trenger slike har neppe så strenge plasskrav at de er villige til å ofre ytelse for å krympe de. Ytelsekravene er derimot stadig økende. Dermed vil nok superdatamaskiner ta mye plass i framtida også. Man vil neppe kalle maskiner på størrelse med bærbare PCer for superdatamaskiner noen gang selv om ytelsen passerer dagens superdatamaskiner. F.eks kaller vi ikke bærbare PCer for superdatamaskiner i dag selv om de er kraftigere enn det superdatamaskiner var for 15 år siden.

Lenke til kommentar
Det høres ut som science fiction for meg.

Meg også, evt. fullstendig mistolket.

 

Tror neppe noen av dagens datamaskiner klarer å dra nytte av en tusenkjerne prosessor.

Produsentene av datamaskiner har isåfall en kjempeutfordring her.

Om 15 år så er det neppe noen som tenker på å oppgradere sin 15 år gamle maskin med slike prosessorer heller. F.eks kunne det ikke falt meg inn å tenke på en oppgradering av en 486 med 4MB ram nå. Da kjøper man heller alt nytt. Uansett: tusen kjerner vil nok gi større utfordringer for programvareprodusenter enn for maskinvareprodusenter.

 

intel viste vel en 80 kjerner for noen måneder siden, de mente vel at det var mye potensiale i det

Tja, akkurat den brikken som ble vist fram var det ikke mye potensiale i. Den hadde elendige muligheter til å utveksle data mellom kjernene og hver kjerne var svært begrenset. Hver kjerne var neppe mer avansert enn en 486.

 

Uansett så er dette fremtiden, ikke nødvendigvis 1000kjerner men teknologien bak dette. Et selskap i Israel har allerede laget en "laser" prosessor som baserer kalkulasjoner på lys. Tror ikke det blir å sammenligne dagens transistor prosessorer med en slik ny teknologi riktig. Programvare som støtter dette kommer nok, utviklingen går videre :) Husker i sin tid at 28kb minne skulle være mer enn nok til hvem som helst :p

Massive matrisemultiplikasjoner kan gjøres med optiske "prosessorer" siden de bruker noen grunnleggende egenskaper i lyset, men man får neppe bygget noe som kan gjøre mange ulike ting med optiske komponenter. I hvert fall ikke med særlig hastighet. Dessuten handler ikke denne artikkelen om optisk prosessering men om optisk dataoverføring.

 

Programvare kommer ikke til å merke på noe magisk vis om data overføres optisk eller elektrisk.

 

Det opprinnelig feilaktige sitatet om 640k er nok en gang sitert feil.

 

Har sett fiber komponenter før, også i servere. Så er vel på tide det kom til CPU, forhåpentligvis til GPU. Eller alt for den saks skyld=)

Optiske komponenter har eksistert lenge både i servere og vanlige PCer. F.eks har mange vanlige hovedkort en optisk utgang for digitale lydsignaler. I servere har det lenge blitt brukt fiberoptiske kabler for spesielle nettverksforbindelser. Dette blir å så fall bare en erstatning for f.eks HTT-busser, minnebusser, FSB'er og sånt.

 

Men så må jo software industrien henge med også. Men jeg SKAL ha sånt i min data:P

Programvaren "føler" ikke forskjell om signaler blir sendt over optiske fibre eller elektriske ledere. Programvaren trenger ikke å oppdateres på noen måte for dette.

 

Slik jeg forstod nyheten var det første målet å krympe supermaskiner og ikke nødvendigvis putte 1000 kjerner i alle hjem.

Det skjer neppe. De fleste som bruker superdatamaskiner vil nok foretrekke en diger superdatamaskin enn en liten med 1/1000 av proesseringskraften. Antall kjerner er like lite et mål på ytelse som MHz er. Utviklingen vil nok ta en ny retning lenge før vi ser 1000 like kjerner i en liten PC. Den eksponensielle MHz-skaleringen møtte som kjent veggen for 4 år siden. Det samme kommer nok til å skje med antall like kjerner i nær fremtid. Jeg tipper vi allerede er i ferd med å møte den veggen for hjemme-PCer, noe også Intel og AMDs veikart tyder på.

 

Jeg vil si at det er et enormt forbedringspotensiale for både bedre ytelse, mindre strømforbruk og mindre areal når det gjelder supermaskiner som per i dager opptar hele bygninger, krever enorme kjøleanlegg og utveksler data over nettverk.

Tja, for de bruksområder som har et bestemt og oppnåelig krav til ytelse så vil krymping av maskinvaren gi mindre maskiner. Men for bruksområder som aldri får nok ytelse så vil de nok fortsatt bare gå for stadig høyere ytelse slik at plasskravet og effektkravet forblir omtrent uendret.

 

Det hadde vert utrolig digg med flash basert lagring + lysbasert kalkulering og intern komunikasjon i pcen. Og ikke minst fiberlinje *drømme*

Hvorfor det? Det hadde neppe gitt deg noen endret brukeropplevelse. Trolig bare tilført en matrisemultiplikator som vil stå ubrukt det aller meste av tida. Og igjen vil jeg minne om at denne artikkelen ikke handler om lysbasert kalkulering.

 

Ikke for å være negativ men det artikkelen omtaler får neppe mer betydning for vanlige dataentusiaster enn det vifter med fargede LED allerede har gitt.

Lenke til kommentar

Kan de klare å designe hele "multi-kjerne" CPU'en med å bruke lystrafikk i alle kriker og kroker? Altså også på selve kjernene?

 

Lystrafikken kommer vel i seg selv til å være hurtigere enn selve "metallkjernene som har elektriske signaler" ?

Endret av G
Lenke til kommentar
Kan de klare å designe hele "multi-kjerne" CPU'en med å bruke lystrafikk i alle kriker og kroker? Altså også på selve kjernene? Lystrafikken kommer vel i seg selv til å være hurtigere enn selve "metallkjernene som har elektriske signaler" ?

Nei, det er snakk om å bytte ut enkelte ledere (busser) med optiske signaler. F.eks kan en MCM (flere brikker på samme sokkel) som Core 2 Quad kobles sammen med optiske fibre mellom silisiumbrikkene i stedet for elektriske ledere mellom de. Det skal i følge forskerne hos IBM kunne gi både bedre båndbredde og redusert strømforbruk i en av komponentene på CPU'ene (et lite område med FSB-kontroller)

 

Lysbasert prosessering er noe annet. Det kan brukes på noen svært begrensede operasjoner (matrisemultiplikasjon og differanse-ettellerannet) men ikke til generell kalkulering. Dvs. man kan jo prøve men det blir som å prøve å lage en 486 med slike transistorer. Optiske kretser er alt for store og plasskrevende til at de noen gang kan bli bedre enn elektriske integrerte kretser. Elektriske kretser kan ha ledere og detaljer som er mindre enn 45nm, mens det er fysisk umulig å lage optiske kretser som er mindre enn bølgelengden på lys. (f.eks 400 nm). Lys med kortere bølgelengder har en tendens til å ødelegge det de treffer på grunn av at de er så energirike.

 

Prosessorer er i stor grad begrenset av avstanden mellom transistorer. Avstand delt på hastighet er avgjørende for hvor lang tid det tar å overføre et signal fra ett sted til et annet. Siden både lys og elektriske signaler går med nært lysets hastighet i vakuum, c, så er det kun avstanden som er avgjørende. Avstand er en direkte følge av størrelsen på komponenter og ledere. Med 400 nm vs 45 nm så vil sistnevnte stikke av med seieren. Lyskretser kan ikke krympes på grunn av problemene med ødeleggelse, mens elektriske kretser kan krympes, i hvert fall litt til.

Lenke til kommentar
Er redd vi må bytte ut Win XP då, siden det ikkje har støtte for 1000kjerner ennå... :)

Som en liten digresjon kan jeg jo nevne at vanlige Linux-distroer støtter et praktisk talt ubegrenset antall prosessorer rett ut av boksen.

 

F.eks kjører verdens kraftigste superdatamaskin, IBM BlueGene/L, operativsystemet Linux SUSE Enterprise server 9 med 212992 prosessorer.

Lenke til kommentar
Elektriske ledere er allerede nede i 45 nm bredde.

Må bare pirke litt her fordi tallet egentlig er 90nm i en moderne 45nm prosess. Per definisjon omtales en prosess som XXnm der XX er halvparten av minimumsbredden på M1 laget i prosessen. Dvs. at minste rutestørrelse i M1 laget er XXnm, men det kreves minimum to ruter i bredden. I motsetning til populær tro så er ikke størrelsen av transistorene direkte koblet til dette tallet og i de siste prosessgenerasjonene har forskjellen mellom M1 geometrien og polysilicon* geometrien i transistor gaten økt ganske raskt i den retning at gate geometrien har blitt en god del mindre enn M1 geometrien. I tillegg krever ikke gate geometrien to ruter i bredden. Poenget med å ha ruter som er mindre enn den minste størrelsen i M1 laget er at en får bedre mulighet til å gjøre små økninger i bredden når dette kreves. F.eks kan en øke bredden på en leder med 50% over minimumsbredden ved å la rutebredden være halvparten av minimumsbredden, og så benytte 3 i bredden isteden for 2. Dette hadde naturlig nok ikke vært mulig med ruter på samme bredde som minimumsbredden. Da hadde neste steg vært dobbel bredde.

 

Det er litt ironisk at f.eks en 45nm prosess har veldig liten andel 45nm geometri. Antagelig er gate lengden, ikke bredden, den eneste geometrien som kommer i nærheten. :)

 

*)Noen moderne prosesser benytter metall gate i steden for polysilicon, men jeg tror det er vanlig å benytte ganske mye polysilicon i disse prosessene også. Det er ikke snakk om rent metall i gaten.

Endret av Anders Jensen
Lenke til kommentar
Er redd vi må bytte ut Win XP då, siden det ikkje har støtte for 1000kjerner ennå... :)

Som en liten digresjon kan jeg jo nevne at vanlige Linux-distroer støtter et praktisk talt ubegrenset antall prosessorer rett ut av boksen.

 

F.eks kjører verdens kraftigste superdatamaskin, IBM BlueGene/L, operativsystemet Linux SUSE Enterprise server 9 med 212992 prosessorer.

Men til gjengjeld kjører den vel mange tusen instanser av Linux sånn at det egentlig ikke er å betrakte som en maskin, men et cluster av maskiner. (Edit: 106,496 noder for å være eksakt) Den største maskinen i verden, målt i antall kjerner styrt av ett enkelt operativsystem er SGI Altix 4700 som har vist SSI (Single System image) på 2048 kjerner (1024 dual cores). Dette er selvfølgelig Linux og Itanium prosessorer. Linux distribusjonen er ikke helt standard, men kommer med egne verktøy fra SGI for å håndtere disse gigantiske NUMA maskinene. Om disse verktøyene er nødvendig for at det skal fungere er jeg ikke sikker på, men for at dette skal kunne ha noe som helst forhåpning om å jobbe effektivt så er det nok veldig nødvendig. I tillegg må en ha et spesial skrevet program for å skalere til så mange prosessorer. Vanlig dual prosessor optimalisert software vil stort sett fungere elendig.

Endret av Anders Jensen
Lenke til kommentar
Må bare pirke litt her fordi tallet egentlig er 90nm i en moderne 45nm prosess. Per definisjon omtales en prosess som XXnm der XX er halvparten av minimumsbredden på M1 laget i prosessen.

Fint å få oppklart litt rundt dette. Jeg har alltid trodd at prosessen angir gate-lengden. Denne linken fra Intel sier imidlertid at gatelengden (?) man oppnår med 65nm prosess er på 35nm, og oksidtykkelsen på gaten er på 1,2nm (!!). Da snakker vi jo om ca to lag med atomer?? Skjønner ikke hvordan dette kan isolere noe som helst...

 

Hva er så dette M1-laget du snakker om?

Lenke til kommentar

Men altså...basere en prosessor på lysets hastighet som tilsvarer 300000km i timen?

Eller har jeg lest feil?

Isåfall er det jo bra det...ser heller for meg at vi får bygd romferjer som klarer en hastighet på 300k kilometer i timen, det er mere nyttig enn en 1000kjerners cpu basert på lysoverføring

Endret av Olanru
Lenke til kommentar
Hva er så dette M1-laget du snakker om?

M1 er det første laget med metall på toppen av transistorene. Det er typisk 7 til 9 lag med metall i en moderne prosess. De høyere lagene benytter mye grovere geometri enn M1. M2 og M3 benytter som regel ganske fin geometri for å få plass til mest mulig signalering på minst mulig plass. De resterende lagene er for det meste jording, strømforskyning, klokke og databusser for flytting av data over lengre distanser rundt på brikken.

Lenke til kommentar

AJ: Takk for interessant info om størrelseforhold.

 

Men altså...basere en prosessor på lysets hastighet som tilsvarer 300000km i timen?
300000km i sekundet faktisk

Optiske fibre har en brytningsindeks på ca 1,5 så der er lysets hastighet rundt 200 000 km/s.

 

Visjoner: Det er noen fine bilder av M1-laget og transistorer i dette innlegget.

Lenke til kommentar
Prosessorer er i stor grad begrenset av avstanden mellom transistorer. Avstand delt på hastighet er avgjørende for hvor lang tid det tar å overføre et signal fra ett sted til et annet. Siden både lys og elektriske signaler går med nært lysets hastighet i vakuum, c, så er det kun avstanden som er avgjørende. Avstand er en direkte følge av størrelsen på komponenter og ledere. Med 400 nm vs 45 nm så vil sistnevnte stikke av med seieren. Lyskretser kan ikke krympes på grunn av problemene med ødeleggelse, mens elektriske kretser kan krympes, i hvert fall litt til.

 

 

Everything that can be invented has been invented.

 

 

Trenger ikke å male fanden på veggen.

 

Selv ser jeg frem til den dagen man kan lage superledere som virker med romtempratur.

Endret av ze5400
Lenke til kommentar
Prosessorer er i stor grad begrenset av avstanden mellom transistorer. Avstand delt på hastighet er avgjørende for hvor lang tid det tar å overføre et signal fra ett sted til et annet. Siden både lys og elektriske signaler går med nært lysets hastighet i vakuum, c, så er det kun avstanden som er avgjørende. Avstand er en direkte følge av størrelsen på komponenter og ledere. Med 400 nm vs 45 nm så vil sistnevnte stikke av med seieren. Lyskretser kan ikke krympes på grunn av problemene med ødeleggelse, mens elektriske kretser kan krympes, i hvert fall litt til.

 

 

Everything that can be invented has been invented.

 

 

Trenger ikke å male fanden på veggen.

 

 

Selv ser jeg frem til den dagen man kan lage superledere som virker med romtempratur.

Da venter vi sammen, hverken kjøling eller voltøkning vil trenges for å overclocke sånne beist

Endret av micke090
Lenke til kommentar
Everything that can be invented has been invented.
Trenger ikke å male fanden på veggen.

 

Selv ser jeg frem til den dagen man kan lage superledere som virker med romtempratur.

Det sitatet betyr ikke at alt vi drømmer om en dag vil bli funnet opp. Det jeg refererer til er fysiske begrensninger. Noe som er en av grunnene til at vi ikke har overlys-hastighet-romskip eller "beam me up schotty"-stråler. Vi kommer sikkert til å finne opp mye fint i framtida men heldigvis ingen ting som bryter med fysiske lover.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...