Gå til innhold

Seriell FSB fra Intel?


Anbefalte innlegg

*masse tull om lyshastighet og sånt*

det verste var at jeg faktisk skjønte noe av det der

Jepp. og ein del av det var feil

hva da?

Signalhastigheita i kabel(er ca 2,3*10^6 for koparkabel, kan sikkert vera noko høgare i ein høgkvalitetslinje i ein pc). At det ikkje er tatt hensyn til dispersjon. Og at avlesinga av bitstraumen ikkje føregår kontinuerleg.

Endret av gastingen
Lenke til kommentar
Videoannonse
Annonse

Det blir skrevet i artikkelen at det i første omgang må man benytte brikker som konverterer signalet til serielt, antar da at det menes konvertering fra parallelt til serielt, hvordan kan denne konverteringen gjøre at ytelsen øker da, ingenting er vel kjappere en det tregeste leddet? . Eller er denne konverteringen kun ment som en implementering av nye standard enheter?

Lenke til kommentar
Det blir skrevet i artikkelen at det i første omgang må man benytte brikker som konverterer signalet til serielt, antar da at det menes konvertering fra parallelt til serielt, hvordan kan denne konverteringen gjøre at ytelsen øker da, ingenting er vel kjappere en det tregeste leddet? . Eller er denne konverteringen kun ment som en implementering av nye standard enheter?

Tror du er inne på noe med siste påstand der. S-ATA er en slik "opgradering" som skal kunne utnyttes over tid.

Lenke til kommentar
Det blir skrevet i artikkelen at det i første omgang må man benytte brikker som konverterer signalet til serielt, antar da at det menes konvertering fra parallelt til serielt, hvordan kan denne konverteringen gjøre at ytelsen øker da, ingenting er vel kjappere en det tregeste leddet? . Eller er denne konverteringen kun ment som en implementering av nye standard enheter?

Tror du er inne på noe med siste påstand der. S-ATA er en slik "opgradering" som skal kunne utnyttes over tid.

Det må vere ganske unødvendigt dyrt ogso, å ha so mange ledarar frå CPU til HK, det nærmar seg vel stygt 1000 pinnar. Ikkje berre er det mange, dei skal vera so godt atskilt at det ikkje smittar for mykje til naboenledarane ogso og ved dei frekvensane som er der no byrjar ting å smitte ganske bra.

Endret av gastingen
Lenke til kommentar

hmm, ser ut til at en skulle kunne dytte hele northbridge delen av chipsettet in på cpuen ja. southbridge med alle sine integrerte deler blir noe annet da.

 

så om dem lager ett system hvor du kan pakke cpuene inn på pci-e kort og få dem til å snakke sammen (største problemet her blir vel os og addressering) så blir det definitivt NUMA løsninger inni hjemmepcen. trenger du mer fart. bare kjøp deg ett ekstra cpu kort å trykk det inn der det er plass.

 

synes å huske dem snakka om å lage en form for nettverkskabel for pci-e systemet også. chain-linka tårn anyone? uendelig (opp mot addresseringstaket ihvertfall) datakraft i hjemmet? høres litt sykt ut :love:

 

helst bør cpu kortene har egene minne slots slik at en slipper å slåss om hovedkort ram (hovedkortet blir da ett lydkort/nnettverkskort/hd-kontroller).

 

os måtte selvsagt passe på å dytte jobber som ikke var tidsviktige ute i perifere cpuer (compile kernel i bakgrunnen uten hastighetestap?) og også passe på å først bruke de cpuer som var nærmest lagringsenheten data bar hentet fra.

 

uansett, det hadde ikke blitt skikkelig cluster tech, men for hjemmebruk tror jeg det hadde blitt ganske så brukbart ;)

Lenke til kommentar
trenger du mer fart. bare kjøp deg ett ekstra cpu kort å trykk det inn der det er plass.

Slik som i dagens "Bladservere" ;)

 

Kan du ikka bare like greit gå over på helt passive bakplan, slik som i skikkelige servere? Et bakplan med ti PCIx slotter, så kan man fylle på nøyaktig hva man vil

 

PCI-X (PCI Extended) er en forbedret versjon av PCI og vil nok neppe overleve ettehvert som PCIe (PCI Express) overtar.

 

Fremtiden er utvilsomt serielle punkt til punkt busser som f.eks SATA og PCIe.

 

Edit: MegaLeif

Endret av el-asso
Lenke til kommentar
jeg synes artikkelen var veldig uklar og lurte på om noen kunne komme med en mer detaljtert og forstålig forklaring på hva dette er?

Se her:

http://www.vr-zone.com/?i=1466

Intel hinted that the Front Side Bus (FSB) of their future processors could go serial in 2007-8 timeframe. As Intel is gearing towards parallelism with their multi-core CPU designs therefore the processor bus connecting the CPU and chipset will be facing bandwidth bottleneck. This is the reason why the Dual Core Xeon processor codenamed Dempsey will have two processor buses from the CPUs to the chipset (Blackford & Greencreek) to overcome the bottleneck.

 

Another reason is that Intel is trying to increase the processor bus speed which is also an important factor in CPU performance. However, the limitation of the current parallel FSB will be felt when CPU FSB goes above 1.2Ghz. As we know, Dual Core Smithfield will only feature 800Mhz FSB and even the 65nm Allendale/Millville is to adopt 1066Mhz FSB therefore 1.2Ghz seems to be the limitation for parallel FSB. Serial FSB must come about to overcome this limitation.

 

According to the memory roadmap, DDR3 800/1066/1333 will be the memory standard for processors in 2007-8 therefore memory interface will have to go serial too. The memory interface will go serial in 2 stages; the first stage implementation is done by using the Advanced Memory Buffer (AMB) chip for use in FB-DIMMs to convert parallel bus into serial. Eventually it will reach a stage where true Serial DIMM will come around.

Mao. så har altså Intel omsider innsett at deres delte buss (FSB) representerer en flaskehals spesielt med tanke på deres kommende dual-kjerne prosessorer, og at de må bytte den ut med noe bedre slik AMD allerede har gjort med sin nye punkt-til-punkt HyperTransport-buss. PCI er et annet eksempel på en delt buss som er på vei ut, og den blir nå etterhvert erstattet av PCI-Express som også er en punkt-til-punkt buss. Fremtiden er altså at man erstatter delte busser med punkt-til-punkt busser, hvor dataene blir overført som pakker omtrent på samme måte som i et ethernet nettverk som er mer effektivt mhp. utnyttelse av tilgjengelig båndbredde og sånn sett hjelper å fjerne flaskehalser i systemet.

 

For mer om dette så anbefaler jeg alle å lese denne glimrende artikkelen:

http://www.samag.com/documents/s=9408/sam0411b/0411b.htm

Endret av snorreh
Lenke til kommentar
trenger du mer fart. bare kjøp deg ett ekstra cpu kort å trykk det inn der det er plass.

Slik som i dagens "Bladservere" ;)

tja kansje, har ikke helt oversikt over hvordan blade serverne funker. men slik jeg har skjønt det er hver blade en egen pc, men med delt strømforsyning og nettverk eller noe sånt.

 

her er opplegget slik jeg tenker meg det:

 

du har x antall 16x pci-e kontakter pr hovedkort. i hver av dem kan du sette ett CPU kort (eller hva som helst annet). om du setter ett nytt CPU kort vil os ved oppstart plukke opp dette (håndteringen av oddetalls antall cpuer og addressering er jeg ikke 100% sikker på, altså 3, 5 eller flere).

 

du har også 2 spesielle kontakter på hovedkortet som gjør deg i stand til å kjedekoble pci-e kontrollere (dette om jeg ikke husker feil, jobbes det med).

 

hvert CPU kort har plass for egne minnebrikker slik at dem kan i teorien kjøre hele jobben alene. os burde også prioritere cpuer som er i nærheten av lagringsenheter som data og programmer er hentet fra.

 

altså, heller den en cluster hvor hver boks er selvstendig med os og det hele så snakker vi her om ett os men ett ukjent antall cpuer, lagringsenheter osv. kommer til å være ett helvet for pr cpu lisensiering men jeg forholder meg til linux...

 

er det praktisk mulig? og hva effekter vil det ha på regnekapasitet osv?

Endret av hobgoblin
Lenke til kommentar
Med unntak av kjedekobling av bakplan, så er det mulig, og det finnes. Ta en titt på Rocky-serien til IEI hvis du finner noe om den på nett :) Hvert CPU-kort har riktignok 2 CPU-er da. Har sittet og fiklet med en slik en idag :)

hmm, etter hva jeg finner om disse rocky enheten er dem for en fullverdig pc å regne, på størrelse med ett godt voksent agp grafikk kort (eller der omkring). dette er ikke helt hva jeg tenkte på men det ligner på ett vis (om jeg da ikke har missforstått noe).

 

hvordan ser ett oprativsystem disse enhetene? blir dem som selvstendige pcer?

 

jeg tenkte mer på at heller den å ha cpu koblingene loddet fast på hovedkortet så satte du dem inn på samme måte som ett grafikkort. ved oppstart ville os se at "hei. den har fått en ny cpu å leke seg med". og med selvstendige minnekontakter på samme kort har hver cpu sin mengde minne som ligger nærmest og slipper dermed å dele minne med andre cpuer (selv om dette kansje kunne vært mulig. cpu kort uten cpu men med minnebrikker anyone?).

 

siden cpuen begynner å ta opp i seg jobbene til northbridge (mer leller mindre) så er alt som trengs at pci-e kontrollern er i stand til å prioritere trafikk mellom disse cpu kortene og de andre delene av systemet.

 

det skulle gjøre det teoretisk mulig for folk å i det uendelige skifte cpu uten å skifte hovedkort også siden alt som trengs å skiftes sitter på det cpu kortet.

Lenke til kommentar

Jeg er rimelig sikker på at et skikelig OS vil kunne oppfatte hvert CPU-kort som en ny ressurs å leke seg med. Jeg er usikker på hvordan resten av dillet på CPU-kortet (som i praksis tilsvarer en hel PC ja) vil fungere, men man vil kunne dra nytte av hver CPU med eget minne i alle fall.

 

Smekket sammen to dual 2,8c-er idag i samme kabinett. *sikle*

Lenke til kommentar

For å få ordentlig utbytte av flere prosessorer i et system så er det viktig at de er koblet sammen uten for mye logikk og for mange busser. En felles hub (svitsj) der alle er direkte tilkoblet er den beste måten å gjøre det på. Seriell FSB ser ut til å være den naturlige fortsettelsen av det systemet som vises i videoen nedenfor. Som en ser er FSB den eneste linken som nå er parallell i systemet etter at IO og minne er blitt serielt. Med overgang fra parallell til seriell FSB vil det også bli mulighet for å øke antall FSB'er per Northbridge (NB). Det vil gi UMA (Uniform Memory Access) systemer et godt spark fremover, i praksis 8-way ved bruk av dual core CPU'er. Disse UMA systemene er enklere å optimalisere for enn NUMA (non-UMA) og de yter næremere teoretisk maksimum enn alle andre system topologier siden det ikke finnes flaskehalser uansett trafikkmønster.

 

http://www.memforum.org/data/fbdmedium.zip (12MB)

 

Når seriell FSB innføres vil nok NB bli en noe mer prioritert komponent. Dvs. det vil bli viktig å produsere disse på nyeste produksjonsprosess og de vil i hovedsak bestå av en switsj med enorm kapasitet. Antagelig vil effektforbruket til disse NB chipene øke relativt til effektforbruket til CPU. Kanskje ser vi systemer med 4 passivt kjølte CPU'er og en aktivt kjølt NB i ~2007. Kombiner dette med 8 FB-DIMM kanaler på NB og vi snakker har et vinner system tenker jeg.

Lenke til kommentar

Måtte bare grave opp denne tråden igjen. Nå har nemlig Samsung sagt at de vil levere 1GB DDR2 FB-DIMM moduler:

Samsung Develops Fully Buffered DIMM for Next Generation Servers and Workstations

 

Det var noe over min forventning at de vil levere buffere med hastigheter på 3.2Gbps og 4.8Gbps Dette viser at den serielle link teknologien Intel har utviklet til FB-DIMM er svært kapabel og vil gjøre seg helt ypperlig til seriell FSB på 5+GHz slik jeg nevnte tidligere i tråden.

 

Når det gjelder FB-DIMM så er det nesten umulig å overvurdere hvor viktig dette kommer til å bli i fremtidige high-end maskiner! Sammen med prosessorer som støtter en eller annen form for multithreading kan en sørge for at utnyttelsesgraden av CPU alltid vil være høy. FB-DIMM kan levere ekstreme båndbredder ved relativt lav forsinkelse. Den forsinkelsen som blir kan en maskere ut med multithreading slik at båndbredde i realiteten er eneste begrensning og den blir som sagt høy. Svært høy!

 

Ta et eksempel:

6 FB-DIMM kanaler tar opp omtrent like mye plass på PCB og litt ferre pinner enn 2 kanals DDR2 (~420 for 6 x FB-DIMM vs. ~480 for 2 x DDR2). Hver FB-DIMM kanal oppererer på 4.8Gbps og er 8 bit bred fra NB til minne og 12bit (1,5Byte) fra minne til NB. Det gir:

NB -> minne: 8bit x 4.8Gbps/kanal x 6 kanaler = 28.8GB/s

minne -> NB: 12bit x 4.8Gbps/kanal x 6 kanaler = 43.2GB/s

 

Noen stusser kanskje på at det er valgt å la båndbredden være asynkron. Dette er gjort fordi det normalt er mer lesing enn skriving til minnet. Siden det er separate ledere for overføring i hver retning så sparer en noen signal ledere ved å gjøre det slik. En sparer faktisk 8 ledere per kanal og det blir fort en del kanaler i et FB-DIMM system. En FB-DIMM kanal er forøvrig på 69 ledere slik den er i dag.

 

I tillegg er dette minnet svært stabilt på denne hastigheten grunnet bruk av DDR2 og bufferet. Det kan ikke sies om dagens REG DDR1-400.

 

Bilde av FB-DIMM her:

http://www.physorg.com/news2139.html

Endret av Knick Knack
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...