Gå til innhold

IBM vil tusendoble prosessorytelsen


Anbefalte innlegg

IBM altid kommer opp med noen ideer om hvordan det går an å lage en cpu som flerdøbler dagens hastighetter på, men ingen av ideene blir til noe. engang kom di opp med en ide om lys/laser/foton basert cpu som skulle og så flerdøble dagens hastighet(som intel nå holder på gjøre noe med faktisk). di burde holde seg på en ide og prøve å realisere det isteden for å komme opp med tusen ideer som aldri blir til noe. akkurat den her med å stabbe cpu kjerner oppå hverandre høres domt ut synes jeg :mad: kunne vel kanskje bare lage bredere cpu da, med kjerner vedsiden av hverandre så trenger man ingen lim di snakker om og varmeledingen og blir som vanlig, eneste som er minus med det da er bare at cpu blir fysisk likestor som en kreditkort kanskje, er jo great vel, med tanke på hvormange kontakter man får ut av en sånn! jaja :mad:

Lenke til kommentar
Videoannonse
Annonse

De fleste av disse tinga som du nevner gebi9 er ofte reelle, men tar lengre tid pga det er vanskelig å gjennomføre. Det skjer ofte i små hopp som vi som forbrukere ikke merker enormt. Også er det viktig å merke seg at slike urealiserte prosjekter er viktige for å finne den "riktige" veien framover.

 

Vi må bort fra dagens måte å lage prosessorer om ikke lenge, ettersom vi allerede er begrenset av varme og veggen snart møtes på den tradisjonelle krympingen.

 

Selv om konseptet er sprøtt og far-fetched er det fortsatt bra å se at noen har vilje til å drive framover. Vi har nok av selskaper som kun ønsker å cashe inn på dagens teknologi istedenfor å drive framover.

Endret av Judgement
  • Liker 1
Lenke til kommentar

En dårlig overskrift som forleder noen til å tro at man får 1000x ytelse av å "lime kjerner oppå hverandre"..

"Eneste" forskjellen er jo at man bygger vertikalt istedenfor horisontalt. Man får selvsagt ikke mange ganger bedre ytelse av den grunn. CPU'er er allerede begrenset av effekt/varme.

 

Det å bygge i høyden er jo langt mer plassbesparende enn å bygge i bredden. Det er jo en grunn til at man bygger høyblokker i storbyene.

 

Når det kommer til varmeproblemet så ser jeg for meg at en god løsning kan være å ha ett lag med "nanokjøling" mellom hvert av CPU-lagene.

 

I tillegg tror jeg dette blir litt som Intels Nahalem planer, altså at dette blir løsningen for svært spesifikke oppgaver hvor man trenger mange kjerner.

Lenke til kommentar

Det å bygge i høyden er jo langt mer plassbesparende enn å bygge i bredden. Det er jo en grunn til at man bygger høyblokker i storbyene.

lol. Logisk kræsj. En gitt masse tar samme plassen samme hva retning du "bygger" den.

Å sammenligne med grunn areal i en storby blir ..ehm.. merkelig. Kan utdype dette, men gidder jeg, nei.

Lenke til kommentar

blinc: Du ønsker altså prosessorer på størrelse med en avisforside? Hvordan har du tenkt til å få den inn i den bærbare PCen? (En avisforside er omtrent 1000 ganger så stor som en prosessor)

 

gebi9: Jeg synes du burde sette deg litt inn i IBMs merittliste før du dummer deg ut med uttalelser om at det aldri blir noe av oppfinnelsene deres.

  • Liker 2
Lenke til kommentar

blinc: Du ønsker altså prosessorer på størrelse med en avisforside? Hvordan har du tenkt til å få den inn i den bærbare PCen? (En avisforside er omtrent 1000 ganger så stor som en prosessor)

Har aldri sagt jeg er imot å stacke. Påpekte bare bristen med å si det er "plassbesparende". Uansett er begrensningene til CPU'er idag effekt/varme. Grunnflate areal er IKKE problemet.

Lenke til kommentar

Stacking er plassbesparende, men ikke volumbesparende.

 

Ja, dagens prosessorer er effektbegrenset men det er fortsatt mulig og til noen meget parallelle oppgaver gunstig å stacke for å øke ytelsen. Effekt er ikke proporsjonalt med ytelse. Det er ikke sånn at dobling av antall kjerner fører til halvering av klokkefrekvens for å ikke øke effektrammen. Man må typisk bare klokke ned 20-30% for å halvere effekten. I et forenklet tenkt scenario kan vi se for oss at en 8-kjerner på 4 GHz kan klokkes ned og stackes til 16 kjerner og 3 GHz eller 32 kjerner a 2 GHz. 4*8=32, 3*16=48. 2*32=64, altså 50%-100% høyere teoretisk parallell ytelse ved stacking, innenfor samme effektbudsjett. Men økt parallell ytelse på bekostning av seriell ytelse er bare en fordel for noen typer laster.

 

Uansett så regner jeg som sagt med at dette i første omgang blir stacking av to brikker, der den ene inneholder alle kjernene og den andre inneholder massive mengder rask cache.

 

Nå er det vel ikke x86 IBM tenker å anvende dette på, men la oss si de gjorde det. Da kunne vi nok sett for oss Xeon 10-kjernene til Intel få økt L3 cachen fra 30 til 128 eller 256 MB. Eller tilsvarende for Opteron 6200 med 16 kjerner få økt L3 cachen fra 2*8 MB til 2*128 eller 2*256 MB. Kanskje helt opp i 1-2 GB om de bentytter DRAM eller lignende minnetyper som cache.

Endret av Simen1
Lenke til kommentar

Det å bygge i høyden er jo langt mer plassbesparende enn å bygge i bredden. Det er jo en grunn til at man bygger høyblokker i storbyene.

lol. Logisk kræsj. En gitt masse tar samme plassen samme hva retning du "bygger" den.

Å sammenligne med grunn areal i en storby blir ..ehm.. merkelig. Kan utdype dette, men gidder jeg, nei.

 

Nei, det blir faktisk ikke noen logisk kræsj. Volumet for "CPU-etasjene" blir det samme, men grunnarealet de vil ta opp i ett kabinett blir ikke det samme.

 

La oss si at de skal ha 20 "CPU-etasjer" i ett kabinett.

 

Om de plasserer disse oppå hverandre så vil den bare trenge samme grunnareal som de har i dag.

 

Om de plasserer disse ved siden av hverandre vil man trenge grunnarealet til 20 CPU'er.

 

Å sammenligne med grunn areal i en storby blir heller ikke merkelig da de har samme plassproblemet der. Både på PCer og i byene har man godt volum, men lite grunnareal.

  • Liker 2
Lenke til kommentar

mulig jeg missforstår her nå, men CPUen blir vel ikke 100x raskere av å ha 100 cpuer oppå hverandre? eneste er vel at du får 100x flere kjerner, men hver enkelt kjerne har jo samme trege ytelsen alikevel? dvs at dette Kun kan bli utnyttet av applikasjoner som er programmert for å bruke 100-400 kjerner fult ut?

kan jo dog være veldig bra for servere osv, men til hjemmebruk tror jeg nok dette ikke er noe for meg i allefall. har knapt programmer som utnytter de 4 kjernene jeg har per i dag... :p

Lenke til kommentar

mulig jeg missforstår her nå, men CPUen blir vel ikke 100x raskere av å ha 100 cpuer oppå hverandre? eneste er vel at du får 100x flere kjerner, men hver enkelt kjerne har jo samme trege ytelsen alikevel? dvs at dette Kun kan bli utnyttet av applikasjoner som er programmert for å bruke 100-400 kjerner fult ut?

kan jo dog være veldig bra for servere osv, men til hjemmebruk tror jeg nok dette ikke er noe for meg i allefall. har knapt programmer som utnytter de 4 kjernene jeg har per i dag... :p

En hundrefelts motorvei vil kunne håndtere hundra ganger så mye trafikk som en enkeltfils-motorvei (om vi regner veldig enkelt). Men det betyr ikke at bilene kommer hundre ganger så fort frem. I en pc har man ofte bruk for mange biler, og ofte bruk for at en bil kommer fortere frem. Video, grafikk og fysikkberegning, som i dag begynner å bli de klart mest krevende bruksområdene, er mer avhengig av mange biler, enn raske biler, og til slikt bruk vil det kunne lønne seg med mange mange kjerner.

 

Men som andre har poengtert trenger man ikke hundre identiske brikker oppå hverandre.

  • Liker 1
Lenke til kommentar
kan jo dog være veldig bra for servere osv, men til hjemmebruk tror jeg nok dette ikke er noe for meg i allefall.

Helt riktig observert. Stacking av kjerner har ikke noe for seg i hjemmePCer. Det er kun enkelte typer serverlaster som har nytteeffekt av det.

 

Stacking av minne derimot.. ;)

Endret av Simen1
  • Liker 2
Lenke til kommentar

Er dette eit dumt spørsmål eller... la oss si at vi har 100 kjerner oppå kvarandre og vi ser bort fra varme og effekt. Dette er koblet til EIT brett sant? Korleis skal vi få all informasjonen som dette regner ut på ein fornuftig måte? Spesielt om dette er paralell prossesser og ikkje serie prossesser.

 

Og om det er serie basert så ser eg ikkje heilt kossen det skal kunne øke hastigheten...

Lenke til kommentar

Ikke tenk seriekobling vs parallellkobling av motstander. Det er ikke sammenlignbart.

 

Prosessorer jobber enten med seriell kode eller parallell kode. Altså programkode som gjør beregninger som perler på en snor etter hverandre eller der det er flere tråder som jobber samtidig med hver sine (helst helt) individuelle oppgaver.

 

Hvis vi ser bort fra effektbegrensningen så vil nok båndbredden begrense ganske kraftig på et sånt system. 200 minnekanaler er ikke akkurat realistisk for å fore prosessoren. Derfor blir prosessoren mer avhengig av mye cache. Og så mye som 100 brikker oppå hverandre blir uansett overkill i forhold til båndbredden man kan få ut av en sokkel med dagens teknologi.

 

Kort sagt vil det i første runde være snakk om 2 brikker oppå hverandre med prosessorkjerner på den ene og massive mengder cache på den andre. Hvis/når man stabler flere brikker med kjerner oppå hverandre så vil behovet for minnebåndbredde øke. Både punkt-punkt prosessorbusser og minnebåndbredden må skaleres opp. F.eks med flere minnekanaler og/eller økt klokkefrekvens.

  • Liker 1
Lenke til kommentar
Gjest Slettet+6132

Så de limer sammen 100 og 1000-dobler ytelsen? Det høres litt suspekt ut, og jeg må jo si at det burde spesifiseres at disse "prosessorene" må være noe på linje med det man finner i en avansert kalkulator med tanke på varme og effektforbruk.

 

Ut ifra den veldig mangelfulle artikkenlen føler jeg at noen lesere vil kunne misforstå dette og tro at det er snakk om at de limer 100 "vanlige" desktop-cpu'er sammen, og det er ikke rart at folk syntes det er et urealistisk konsept da det ville krevet tusenvis av watt og hadde brent opp selv om man kjølte det ned med LN2

Lenke til kommentar

Dette er noe sent i diskusjonen, men her kommer mine tanker :)

 

Ser for meg at slik teknologi kommer til å bli utrolig dyr og kun til bedrifter i første omgang, og at det kommer til å ta LANG tid før slik teknologi kommer til å bli gitt ut til massene på en pris som ikke er helt forferdelig. Tror nok vi snakker en god del år med fintuning, kjøleløsninger som er kompakte og ikke minst strømforbruk før vi ser prosessoren ment til allmennheten av denne typen.

Serversegmentet er nok mest aktuelt, men jeg tror ikke det tar lang tid før det kommer til desktop også. I første omgang med kun 2 brikker stablet. For stabling av flere brikker trenger man through vias, elektrisk ledende "tuneller" mellom de to sideflatene av en brikke. Dette ligger litt lengre frem i tid.

 

I stedet for to lag med kjerner på hvert lag kan det også være aktuelt å ha ett lag med kjerner og ett lag med cache. Da kan prosessen til hver brikke trimmes for sitt formål og så kobler man de sammen etterpå. Da kan man fort regne med kraftige økninger i både størrelse og hastighet på cachen.

 

Høres fornuftig ut å kjøre flere prosessorkjerner nedklokket. Det betyr at man kan få mange flere kalkulasjoner pr watt.

Det er bare smart dersom målet er mer parallell prosessering. Dvs. parallell ytelse vil gå på bekostning av seriell ytelse.

 

Jeg regner med de dyreste serverprosessorene blir de første til å første til å få dette. F.eks IBM Power 8.

+1

 

Pga utviklingskostnader blir det nok i high-end servere dette kommer først ja. Det er også der det er mest å hente ved stacking, enten det blir 2 lag cores + cache, eller cores + cores.

Cores + cache vil kunne øke seriell ytelse, mens cores + cores vil kunne øke parallell ytelse pr watt.

 

 

 

Høres helt fjernt ut å selge inn stacking som en teknologi som skal gi 1000x ytelse. Å stacke minne på toppen av CPU vil gi en enorm gevinst, men å stacke CPU vil gi en begrenset gevinst da vi allerede er effektbegrenset og stacking bare øker det problemet heller enn å løse det. Fordelen er først og fremst at en kan spare inn noe energi på kommunikasjon mellom prosessorene.

+1

 

 

Ja, dagens prosessorer er effektbegrenset men det er fortsatt mulig og til noen meget parallelle oppgaver gunstig å stacke for å øke ytelsen. Effekt er ikke proporsjonalt med ytelse. Det er ikke sånn at dobling av antall kjerner fører til halvering av klokkefrekvens for å ikke øke effektrammen. Man må typisk bare klokke ned 20-30% for å halvere effekten. I et forenklet tenkt scenario kan vi se for oss at en 8-kjerner på 4 GHz kan klokkes ned og stackes til 16 kjerner og 3 GHz eller 32 kjerner a 2 GHz. 4*8=32, 3*16=48. 2*32=64, altså 50%-100% høyere teoretisk parallell ytelse ved stacking, innenfor samme effektbudsjett. Men økt parallell ytelse på bekostning av seriell ytelse er bare en fordel for noen typer laster.

 

Uansett så regner jeg som sagt med at dette i første omgang blir stacking av to brikker, der den ene inneholder alle kjernene og den andre inneholder massive mengder rask cache.

 

Nå er det vel ikke x86 IBM tenker å anvende dette på, men la oss si de gjorde det. Da kunne vi nok sett for oss Xeon 10-kjernene til Intel få økt L3 cachen fra 30 til 128 eller 256 MB. Eller tilsvarende for Opteron 6200 med 16 kjerner få økt L3 cachen fra 2*8 MB til 2*128 eller 2*256 MB. Kanskje helt opp i 1-2 GB om de bentytter DRAM eller lignende minnetyper som cache.

 

+1

Jeg føler også det er verdt å nevne at stacking av DRAM med veldig bred buss vil kunne øke ytelsen på integrerte GPUer betydelig.

 

Flytting av L3 til "plan 2" (eller plan 1 siden kjernene utvikler mest varme og kan kjøles bedre om de er øverst?) vil også gi en mye mindre og tettere kjerne, og kombinert med clock og powergating med "turbo" vil man potensielt få både bedre seriell ytelse ved få tunge tråder, og bedre parallell ytelse ved flertrådede oppgaver. Uten å sette av plass til L3 på samme plan vil man kunne øke antallet CPU/GPU kjerner og/eller harware akselleratorer (som vil være mye mer effektive pr watt for oppgavene de kan gjøre).

 

 

Når vi først snakker om egnede bruksområder, ville ikke grafikkprosessorer kunne nyte ganske godt av dette, de er jo stort sett paralellbaserte fra før. Vil ikke dette kunne øke denne ytelsen drastisk?

For high-end GPUer vil man kunne få betydelig mer regnekraft på samme areal og effektbudsjett, men det vil kreve tilsvarende økning i minnebåndbredde for å beholde balansen. For low-end GPUer (utenfor de integrert på CPU) vil man kanskje kunne stacke nødvendig RAM på kjernene og få redusert størrelsen på GPU+RAM betydelig.

 

 

Så de limer sammen 100 og 1000-dobler ytelsen? Det høres litt suspekt ut, og jeg må jo si at det burde spesifiseres at disse "prosessorene" må være noe på linje med det man finner i en avansert kalkulator med tanke på varme og effektforbruk.

 

Ut ifra den veldig mangelfulle artikkenlen føler jeg at noen lesere vil kunne misforstå dette og tro at det er snakk om at de limer 100 "vanlige" desktop-cpu'er sammen, og det er ikke rart at folk syntes det er et urealistisk konsept da det ville krevet tusenvis av watt og hadde brent opp selv om man kjølte det ned med LN2

Om man bruker kjerner tilsvarende ARM Cortex A9 ville 100 kjerner i samme pakke kommet inn i samme effektområde som dagens high-end desktop CPUer (muligens overklokket). Minnebåndbredde ville fort blitt et problem da. Ved å stable 20-25 lag med Cortex A9 quadcores og noen lag med veldig vid RAM på toppen kunne dette muligens blitt løst.

Endret av GullLars
Lenke til kommentar

Høres helt fjernt ut å selge inn stacking som en teknologi som skal gi 1000x ytelse.

Dette blir litt spekulasjoner, men...

 

Hvis man ser for seg at en cpu produseres i f.eks 10 mindre deler, og "bygges" ved stacking, vil man få en ekstrem senkning i produksjonskostnader pga bedre yield. Man vil på den måten kunne få samme ytelse til en betydlig billigere penge, og teoretisk sett mye bedre ytelse til samme penge.

 

Videre kan det hende man kan få ytelsesfordeler ved at forksjellige deler av prosessoren kan kobles sammen vha kortere ledningsbaner (f.eks cache som du nevner, men også flere kjerner og forskjellige deler av kjernene), altså mer effektiv ruting (3D ruting). I alle fall hvis man klarer å rute lav-resistive og lav-kapasitive ledninger mellom lagene.

 

Man er selvfølgelig også avhengig av effektiv transport av varme ut til kantene.

Det blir ekstremt mange via koblinger om en skal dele opp en CPU kjerne over flere lag. Det vil nok være dramatisk dårlig for yield. Ellers er tanken med å bygge kjernen mer i 3d svært fristende da en får kortere avstander internt som igjen er en av to hoveddrivkrefter for å oppnå bedre ytelse og ytelse/watt.

Lenke til kommentar

Stacking er plassbesparende, men ikke volumbesparende.

 

Selve kretsene i en CMOS brikke utgjør bare en tynn film på toppen av brikken. Tykkelsen på brikken bestemmes av minste tykkelse av substrat som er mekanisk stabilt. Ved stacking er det foreslått å slipe eller etse vekk unødvendig substrat slik at en stack bare er ubetydelig mye tykkere enn en vanlig brikke.

Lenke til kommentar

Eksisterende x86 MCM (2 fysiske brikker per prosessor) kommuniserer med hypertransport-busser, Quickpath-busser (og tidligere med *grøss* FSB). Disse har forholdsvis lavt antall koblingspunkter og kunne sikkert fungert fint til stacking. Noe programvare skalerer faktisk greit på x86 ut over dagens antall kjerner. Det kan sikkert også brukes til fysisk krymping av servere ved å redusere antall sokler. Ulempen er selvsagt økende energitetthet så det er jo ikke all verdens poeng i fysisk krymping på den måten.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...