Jump to content
Sign in to follow this  
corge

Parallellisme og PATA/SATA

Recommended Posts

Hvorfor er SATA-teknologien bedre egnet til høy hastighet enn PATA? Omtrent alle steder i dataverden ser en hele tiden mer og mer parallellisme mens på HDDer ser en at det beveges vekk fra parallellisme - både når det gjelder for ATA og SCSI.

Hvorfor er seriell raskere enn parallell?

Share this post


Link to post

tror det har med at det er lettere og lage raske serie minnekontrollere enn parallell minekontrollere. i teorien kan man få mye høyere ytelse på parallell men som sagt mye vanskeligere og lage kontrollere til det.

Share this post


Link to post
Omtrent alle steder i dataverden ser en hele tiden mer og mer parallellisme mens på HDDer ser en at det beveges vekk fra parallellisme - både når det gjelder for ATA og SCSI.

Nei det er motsatt. Nesten alle steder beveger vi oss bort fra parallelle løsninger, både mtp eletriske signaler og måten enheter er koblet sammen. (busser o.l.)

 

PCI -> PCIe

FSB -> Hypertransport og Infiniband

PATA -> SATA

SCSI -> SAS og Fibre Channel

USB og FireWire kan også nevnes her selv om de ikke har erstattet noe.

 

Men det er også andre plasser hvor samme tankegang blir brukt f.eks i FB-DIMM.

 

Problemer med parallell overføring er "clock skew", fysisk plass og crosstalk. Det første har med at dersom alt skal fungere må alle signalene komme inn akkurat samtidig og jo flere ledere og jo høyere frekvens, jo mindre tidsrom feilmargin er det og jo flere feil blir det. Når det gjelder fysisk plass kan FB-DIMM tas som et eksempel hvor en minnekanal med DDR2 trenger 240 ledere til NB pr. minnekanal mens FB-DIMM kun krever 69. Den sparte plassen gir også mulighet for mer isolering hvor crosstalk også kommer inn. Jeg har ikke satt meg inn i nøyaktig hva crosstalk går ut på direkte fysisk, men det brukes om når signaler gjennom en leder påvirker signalet gjennom en annen leder. Det kommer trolig av magnetfeltet som omgår en leder og er grunnen til at f.eks CAT5 TP kabler kan få problemer med overføringshastigheter når de er sammen i for tykke bunter eller sammen med strømkabler.

 

Timing skew is a problem that can occur on many kinds of computer buses. When signals are transmitted down parallel paths, they will not arrive at exactly the same time due to unavoidable variations in wire transmission properties and transistor sizing, but the signals will arrive close to each other in time. As the frequencies of these circuits increases, this variation will become more and more erratic. If the timing skew is large enough, the clock signal may arrive while the data signal is still transitioning between the previous and current values. If this happens, it will be impossible to determine what value was transmitted from the detected value, resulting in a functional error. This is also known as the Hallving Skjerpvard Theorem.

 

Et seriell kobling kan altså kjøre på en del høyere frekvens enn en identisk parallell kobling og har andre fordeler.

Share this post


Link to post
Omtrent alle steder i dataverden ser en hele tiden mer og mer parallellisme mens på HDDer ser en at det beveges vekk fra parallellisme - både når det gjelder for ATA og SCSI.

Nei det er motsatt. Nesten alle steder beveger vi oss bort fra parallelle løsninger, både mtp eletriske signaler og måten enheter er koblet sammen. (busser o.l.)

 

PCI -> PCIe

FSB -> Hypertransport og Infiniband

PATA -> SATA

SCSI -> SAS og Fibre Channel

USB og FireWire kan også nevnes her selv om de ikke har erstattet noe.

6611377[/snapback]

 

Dette er totalt feil.

 

PCI-Express er parallell. 16x som brukes til skjermkort har 16 lanes. Selv om det er individuelle lanes er det parallelt.

Hypertransport er også parallell, fra 2-bit til 32-bit.

Infiniband kan også skaleres på samme måte til å bli parallell - 1x til 12x.

Ellers har du enorm parallelisme i CPUer, både på makro og mikronivå; f.eks. pipelines, flere execution units for superscalar ytelse, multikjerne-CPUer/flere fysiske CPUer i SMP.

GPU driver også med samme opplegget - flere pipelines, flere GPUer, flere kort, osv.

Eller hva med f.eks. dual channel til DDR-SDRAM? Hva med RAID av disker?

Ta forresten en titt på Cell arkitekturen. Se også på supercomputer clustere.

 

Resten var dog litt nyttig, har forsåvidt lest det før men det var en stund siden. Parallelisme er jo bra, men pga. tekniske problemer må det vel være individuelle linjer. Ser ikke noen grunn til at ikke SATA/SAS blir mer parallell i fremtiden om det blir behov for det.

Share this post


Link to post
Dette er totalt feil.

 

PCI-Express er parallell. 16x som brukes til skjermkort har 16 lanes. Selv om det er individuelle lanes er det parallelt.

Hypertransport er også parallell, fra 2-bit til 32-bit.

Infiniband kan også skaleres på samme måte til å bli parallell - 1x til 12x.

Ellers har du enorm parallelisme i CPUer, både på makro og mikronivå; f.eks. pipelines, flere execution units for superscalar ytelse, multikjerne-CPUer/flere fysiske CPUer i SMP.

GPU driver også med samme opplegget - flere pipelines, flere GPUer, flere kort, osv.

Eller hva med f.eks. dual channel til DDR-SDRAM? Hva med RAID av disker?

Ta forresten en titt på Cell arkitekturen. Se også på supercomputer clustere.

 

Resten var dog litt nyttig, har forsåvidt lest det før men det var en stund siden. Parallelisme er jo bra, men pga. tekniske problemer må det vel være individuelle linjer. Ser ikke noen grunn til at ikke SATA/SAS blir mer parallell i fremtiden om det blir behov for det.

6611422[/snapback]

Desverre er det du som tar feil.

PCI-Express er en seriell protokoll, der 1x-16x står for antall serielle kanaler hver slot har tilgjengelig.

http://en.wikipedia.org/wiki/PCI_Express

Det virker som du har peiling på litt av hvert, men for at en overføring skal bli kalt Parallell, så må data overføres 1 bit per leder. 8 bit - 8 ledere, 32 bit -32 ledere osv.

Seriell overføring brukes for å overføre pakker med data over mindre antall ledere, slik som ethernet, RS323 osv.

Fordet om du kobler mange slike sammen, så blir det ikke parallell overføring, men kombinert båndbredde på async overføring.

 

Crosstalk: http://en.wikipedia.org/wiki/Crosstalk

Share this post


Link to post
Desverre er det du som tar feil.

PCI-Express er en seriell protokoll, der 1x-16x står for antall serielle kanaler hver slot har tilgjengelig.

http://en.wikipedia.org/wiki/PCI_Express

Det virker som du har peiling på litt av hvert, men for at en overføring skal bli kalt Parallell, så må data overføres 1 bit per leder. 8 bit - 8 ledere, 32 bit -32 ledere osv.

Seriell overføring brukes for å overføre pakker med data over mindre antall ledere, slik som ethernet, RS323 osv.

Fordet om du kobler mange slike sammen, så blir det ikke parallell overføring, men kombinert båndbredde på async overføring.

 

Crosstalk: http://en.wikipedia.org/wiki/Crosstalk

6611475[/snapback]

 

Mener du at flere individuelle kanaler som jobber kontinuerlig å øke båndbredden enten synkront eller asynkront IKKE er parallellisme? Jeg snakker/snakket om at diverse teknologier bruker parallellisme for å øke ytelsen, om alle former for parallellisme ikke kan kalles en "parallell bus" i den orginale betydningen - spiller det noen rolle for poenget?

Jeg er fullt klar over at PCI-E er en seriell protokoll, men når du har 16 identiske kanaler for å øke båndbredden til én device, kan du da si meg hvorfor det ikke kan kalles en form for parallellisme?

Share this post


Link to post

Det stoerste problemet med parallelle busser til f.eks. RAM er at lengden paa print-sporene maa vaere like lange for aa unngaa timing problemer. Om jeg ikke husker helt feil er det noe XDR2 patentet til RAMBUS (desverre) unngaar ved aa dele inn minnetilgangen i flere individuelle busser, og en XDR2 buss paa totalt 16bit kan overfoere 16GB/sek.

 

Ang. PCIe - En PCI-e x16 med seriekanaler har faerre elektriske ledere enn en PCI-X 64bit men leverer bedre ytelse. Serie-busser kan ha hoyere hastighet og er lettere aa trace i prints. Ja, det kan fremdeles kalles 16 "parallelle" serielle signaler, men det er jaggu mye mindre enn hva AGP og PCI driver aa baler med og hvert signal kan ha forskjellige spor-lengde og uavhengig CRC sjekking.

 

fra Wikipedia om PCI-X (http://en.wikipedia.org/wiki/PCI-X):

PCI-X has a number of technological and economical disadvantages compared to PCI-Express. The 64-bit parallel interface requires inherently difficult trace routing, because as with all parallel interfaces, the signals from the bus must arrive simultaneously, or within a very short window and noise from adjacent slots may cause interference. The serial interface of PCIe suffers fewer such problems and therefore requires less complex and less expensive designs. PCI-X buses are half-duplex bidirectional whereas PCIe buses are full-duplex bidirectional. PCI-X buses run only as fast as the slowest device; PCIe devices are able to independently negotiate the bus speed.
Edited by Flippo

Share this post


Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
Sign in to follow this  

×
×
  • Create New...