Gå til innhold

Er store harddisker vesentlig treigere enn små?


Anbefalte innlegg

Tja...ikke når Simen sier at de uansett bare kan lese fra ett hode om gangen...

 

såvidt jeg kan lese utfra denne:

http://www.active-disk-wiper.com/wiper-har...rive-basics.htm

 

så er det ingenting som tyder på at en sektor går over flere plater. Og heller ingenting som tyder på at data lagres på sektorer som ligger jevnt over hverandre. Så jeg tok nok feil der! :)

 

Linken bekrefter forøvrig utsagnet mitt om at data fragmenteres bare når det ikke er plass til å lagre filen sammenhengene. (Dvs. større sannsynlighet for fragmentering på små disker når de inneholder like mye data som større disker) :)

Lenke til kommentar
Videoannonse
Annonse

Hvis størrelse i forhold til kapasitet skal spille inn, så kommer det i såfall ann på datatetthet, altså hvor ting fysisk må flyttes før lesehodet er i posisjon til å lese data. Som regel har større kapasitets disker større tetthet og flere plater.

 

Kapasiteten kan kort og godt sies å ha neten ingen påvirkning på ytelse. Sjekk gjerne benchmarks. Andre ting som modell, RPM og cache spiller veldig mye mer rolle.

 

-Stigma

Lenke til kommentar

Det blir kun snakket om å lagre på harddisken, som om man ikke gjør noe annet med en harddisk. Selv har jeg opp gjennom tidene slettet omtrent like mye som jeg har lagret, for å si det sånn...

 

Når man sletter filer, så etterlater det tomrom på harddisken. Dersom filen var fragmentert, så etterlater den enda flere tomrom. Disse tomrommene blir fylt opp med fragmenter av nye filer, og det skjer FØR disken er 85% full (hører du meg, Simen1? :p )

 

Utover det, så har vel søke/lesetider blitt så små nå, at det er neglisjerbart uansett. Fordelen med en stor harddisk framfor flere små, er at PC´en finner riktig fil raskere enn man selv ville klare, dersom man skulle lete etter den på 5 mindre harddisker. Men det var vel ikke det som var utgangspunktet for diskusjonen :roll:

Lenke til kommentar
Når man sletter filer, så etterlater det tomrom på harddisken. Dersom filen var fragmentert, så etterlater den enda flere tomrom. Disse tomrommene blir fylt opp med fragmenter av nye filer, og det skjer FØR disken er 85% full (hører du meg, Simen1? :p )

Joda, jeg hører :) Det stemmer det du sier, men bare til en viss grad. Hvis man har en disk med f.eks 50% ledig plass og skal lagre en diger fil (f.eks 1GB) så prioriteres denne automatisk til en plass på disken der den kan legges mest mulig samlet. Det kan fortsatt skje at den deler seg opp i noen fragmenter men det er ikke et problem for ytelse.

 

Utover det, så har vel søke/lesetider blitt så små nå, at det er neglisjerbart uansett.

Nei, her er jeg svært uenig! Aksesstiden på harddisker var for 10 år siden typisk rundt 20ms. For 5 år siden var den typisk rundt 15ms, nå for tiden er den typisk 13 ms. Det har altså skjedd ekstremt lite på dette området sammenlignet med andre områder (Lagringsplassen har økt flere hundre ganger de siste 10 årene, mengde RAM har økt over 100 ganger, hastighet på CPUer har økt rundt 100 ganger, osv.

 

Bare for å illustrere hvor dårlig aksesstiden er: Hvis du ga harddisken om å aksessere og lese 1 million filer på 1 kByte (med 1kiByte clustere) så ville det tatt ca 5,5 timer for 10 år siden mot ca 3,5 timer nå. maksimalt Hvis man kunne lest de samme filene sekvensiellt etter hverandre så ville det tatt ca 50 sekunder for 10 år siden mot ca 20 sekunder nå. Forskjellen på sekvensiell lesing og random lesing har altså vært enorm før og er enorm ennå.

 

Sekvensiell lesing var altså rundt 20 MB/s for 10 år siden mot ca 50 MB/s nå. Men ved lesing av små filer så vil dette begrense seg yttligere. Maksimalt ville det for 10 år siden vært mulig å lese 50 filer per sekund (hvis filene var ekstemt små), mot opp til ca 75 filer per sekund nå.

 

Så aksesstid er på ingen måte neglisjerbart. Hvis det hadde vært det så kunne vi kuttet ut både cache, NCQ og 10.000rpm til fordel for cacheløse harddisker med 3.600 rpm.

Lenke til kommentar

Det er ingen tvil hos meg om at du kan mye om harddisker, Simen1, og du har interessante poeng å komme med. Men utgangspunktet for tråden var en sammenligning mellom små og store harddisker som oppstartsdisk for OS.

 

Hva er forskjellen mellom oppstartstiden for XP på en 40 GB harddisk som har blitt defragmentert, og en 200 GB harddisk som har blitt defragmentert? Begge har 8 MB cache, og begge har 7.200 rpm.

 

Forskjellen vil ikke utgjøre mer enn noen sekunder. I dataverdenen så kan man diskutere millisekunder, men i den "reelle" verden så rekker man ikke stort mer enn å klø seg i hodet hvis man har noen sekunder til overs. Og det er det jeg mener med neglisjerbart: det er i alle fall ikke slik for meg at jeg vrir meg av utålmodighet mens PC´en starter opp (og jeg har Win2k...).

Lenke til kommentar

Jo, jeg er enig i at det er neglisjerbart om det tar 26 eller 28 sekunder å starte windows. Men nå sammenligner du/vi harddisker som har samme aksesstid. (7200rpm, samme serie, samme lagringstetthet per plate og samme mengde cache som er der for å motvirke tregheten fra aksesstiden). På slike harddisker vil nok windows starte på ganske nøyaktig like lang tid (mindre enn 1 sekund forskjell).

 

Når det gjelder erfaringsmedssige forskjeller på en disk på 40 og en på 200GB så er nok de større fordi folk ikke sammenligner tilsvarende disker i samme serie. De sammenligner kanskje sin erfaring med en 3 år gammel 5400rpm budsjettdisk med 2 MB cache med en ny disk med 7200rpm og 8MB cache. På slike disker vil det være en del større forskjell. Kanskje windows starter på 35 sekunder i stedet for 25 sekunder.

 

PS. Hvis man sammenligner to tilsvarende disker i samme serie, en med 40GB og en med 200GB men som er partisjonert slik at windows får de første 40GB, så vil nok sistnevnte virke raskere av to grunner: 1. Transferrate vil være høyere på 200GB-disken siden man hele tiden leser fra den raskeste femtedelen av disken. 2. Siden søketiden vil reduseres noe siden lesearmen bare trenger å bevege seg 1/5 av veien den ellers ville gjort. Dette kan redusere aksesstidene med rundt 20-50%.

 

for ordens skyld:

gjennomsnittlig aksesstid (ms) = gjennomsnittlig søketid + gjennomsnittlig rotational latency.

gjennomsnittlig rotational latency = 60/(2*rotasjonshastigheten). f.eks 60/(2*7200rpm) = 4,17 ms

Mens gjennomsnittlig søketid inkluderer det å flytte lesearmen, det å finne riktig spor (finjustering), latency i elektronikken mm.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...