Gå til innhold

SSD-tråden: info om og diskusjon rundt SSD


Anbefalte innlegg

Beklager at jeg går litt utenfor tema her:

 

Nå har jeg installert IBM M1015, og jeg har truffet på noen problemer. Jeg har OS satt opp på et raid0 på SB850, og i BIOS er dermed sata satt til RAID modus. Av en eller annen merkelig grunn virker ikke M1015 når BIOS er satt til RAID modus. Det virker med både IDE modus og AHCI modus.

Med RAID modus vises ikke bootsekvensen til M1015 under POST, men windows finner kortet (men sier under driverinstallasjon at kortet ikke kunne startes).

 

Så spørsmål:

Vet noen om en workaround for BIOSen sin idiotiske tendens til å kludre til alt når SB850-sataportene er satt til RAID modus? (Hovedkortet er ASUS M4A89GTD PRO/USB3, og BIOS er noe fra American microsystems.)

 

Evt: Går det ann å flytte OS raidet fra hovedkortets SBB850 til M1015 som nå sitter i PCI-porten, og vil det senke ytelsen til systemet?

 

 

Takk :)

 

Jeg tror ikke du klarer å flytte raidet over til en annen kontroller. Det du derimot kan gjøre er å ta backup av filene dine (lage et image av hele raidet mao), fjerne raidet, sette opp nytt raid på kontrolleren og legge tilbake imaget der.

Lenke til kommentar
Videoannonse
Annonse

Jeg fant akkurat data på en ting jeg har hatt lyst til å benchmark teste lenge selv for et par SSDer, linker:

http://www.ssdperformanceblog.com/2011/06/intel-320-ssd-random-write-performance/

http://www.ssdperformanceblog.com/2011/06/fusionio-320gb-mlc-random-write-performance/

http://www.ssdperformanceblog.com/2011/09/intel-320-ssd-write-performance-cont/

Det er flere artikler der ( http://www.ssdperformanceblog.com/ )

 

Det hadde vært morsomt å teste dette på fler forbruker-SSDer.

Mitt 4R0 C300 64GB (=256GB) har blitt degradert fra ca 320MB/s random writes til 40-50MB/s random writes, og jeg vurderer å lage et image, secure erase, og sette RAIDet opp igjen som 200GiB i stedet for 234GiB, da jeg ikke bruker all plassen uansett.

Et kjapt overslag sier random ytelse er degradert til 12,5% av "fresh", og default spare area er 7% (så det er mulig at worst case ytelse kunne vært 22,4MB/s om worst case skalerer lineært med spare area).

Med 200GiB av 256GiB NAND gir ca 22% spare area. Med samme degradering i forhold til worst case, om det stemmer, vil da gi 125MB/s random write (sustained / steady state med mitt bruk).

  • Liker 1
Lenke til kommentar

GullLars : Sist gang jeg tok en HDDErase så laget jeg nå bare et RAID 0 array på 200 GiB og bruker resten til spare area (2 stk C300 256GB). Random write burde da holde seg lenge hos meg? (Windows, Firefox og Outlook skriver mest til mine SSD'er, så er vel relativt lett bruk)

 

Den vil helt klart hodle seg mye bedre da ja. 30-40% vil jeg anta er nok i massevis. OCZ solgte jo tildigere SandForce med 30% spare area, men ingen som kjøpte dem, så de slutta.

Lenke til kommentar

Det er vel bare (hovedsaklig) et tema med Raid0 mtp mangel av TRIM?

 

Nei, om du skriver mye så er spare area kjempeviktig. Alle enterprise SSDer selges med masse overprovisjonering.

 

The 200GB 710 I'm basing these calculations on doesn't actually have 200GB of NAND on-board, it has 320GB.

 

Sakset fra: The Intel SSD 710 (200GB) Review

Endret av kservik
Lenke til kommentar

Jeg gikk like greit hen og kjørte fersk installasjon på IBM M1015.

2R0 M4 128 med virtuell drive på 200 GB.

Jeg vet ikke hvilke innstillinger raidet burde ha, så jeg valgte det som stod som standard:

StripSize: 64 KB

Disk Cache: Disable

Disable BGI: No

Resten av valgene hadde bare ett alternativ hver.

 

Dette ga ganske gode scores på ASSSD, med unntak av 4K write, som var forferdelig dårlig - 2 MB/s.

 

Tips til endringer? PS: Booter W7 fra raidet.

 

 

EDIT: Jeg tenkte litt selv, og satte på cache. Med ett be det mye bedre: :)post-71430-0-75568100-1328225111_thumb.jpg

Endret av madsc90
Lenke til kommentar
GullLars : Sist gang jeg tok en HDDErase så laget jeg nå bare et RAID 0 array på 200 GiB og bruker resten til spare area (2 stk C300 256GB). Random write burde da holde seg lenge hos meg? (Windows, Firefox og Outlook skriver mest til mine SSD'er, så er vel relativt lett bruk)

Med tanke på ytelsereduksjon i Raid0, er det noen forskjell på om man lar halve plassen stå upartisjonert og fyller partisjonen til randen, eller partisjonerer hele området og bare fyller det halvveis?

Lenke til kommentar
GullLars : Sist gang jeg tok en HDDErase så laget jeg nå bare et RAID 0 array på 200 GiB og bruker resten til spare area (2 stk C300 256GB). Random write burde da holde seg lenge hos meg? (Windows, Firefox og Outlook skriver mest til mine SSD'er, så er vel relativt lett bruk)

Med tanke på ytelsereduksjon i Raid0, er det noen forskjell på om man lar halve plassen stå upartisjonert og fyller partisjonen til randen, eller partisjonerer hele området og bare fyller det halvveis?

Det eneste jeg har sett fra produsenter på dette er at man kan tvinge ekstra spare area med mindre enn maks størrelse partisjon direkte etter secure erase eller destruktiv firmware upgrade. (det skal også fungere etter å ha formatert SSDen i et system med TRIM)

Så lenge OS ikke faktisk har plassert noe data på en LBA adresse har ikke SSDen noe data å ta vare på, og kan bruke adressen som spare area. Så i scenario du har valgt over vil det ikke være noen forskjell, men i praksis vil du sansynligvis ikke alltid skrive til LBA med lavest tall, så data kan da gli ut over det du har tenkt å bruke, og om du først har brukt mer vil SSDen da alltid måtte dra med seg den dataen om du ikke har TRIM.

 

Degradering av skriveytelse følger fler parametere der de viktigste er spare area, random:sekvensiell skriv forhold og størrelse, og Garbage Collection effektivitet. Om SSDen har både idle og aktiv (samtidig med skriving) GC vil også skriv pr tid spille inn. Det avhenger også av granulariteten i SSDen i form av størrelse på pages og erase blocks, og hastigheten på programmering og sletting. Og selvfølgelig om SSDen har et kunstig skrivehastighet tak for å redusere delta mellom fresh og steady state.

 

Ved kontinuerlig sekvensiell skriv kan man bli erase-bound om det tar lenger tid å slette en erase-block enn å skrive alle pages i den.

Ved kontinuerlig tilfeldig skriv (eller i en SSD uten TRIM og idle GC over tid) eller skriving med stor tilfeldig komponent vil effektiviteten av GC og spare area begrense hastigheten (som vil være lavere enn erase-bound hastighet).

 

Etter hva jeg har sett ser worst case random write [degradert]:[fresh] i de fleste SSDer ut til å gå mot [spare area]:[kapasitet] når det er en stor andel random writes. Det ser også ut til at forskjellen mellom 4KB RW QD32 og 4KB RW QD1 minsker når SSDer blir degradert.

 

 

EDIT: Betroz, 200GiB partisjon på et 512GB RAID (512GiB NAND) virker egentlig overdrevent mye, dette er betydelig mer enn de fleste enterprise løsninger har. Enterprise SSDer ligger ofte mellom 20 og 35% spare area, Fusion-IO har alternativer på 0% (ekstra etter 7% fra GiB -> GB konvertering), 25% og 50% spare area på sine ioDrives.

Med ca 60% spare area som du har skal du i teorien skrive med ca 60% av fresh random write hastighet om du skriver 100% belastning 100% random 24/7 til RAIDet.

Om du kan benytte plassen til noe kan du ta regnestykket på hvor mye av orginal ytelse du synes er greit som worst case, og så ta brøken: (der [spare Area GiB] = 512GiB - partisjon i GiB)

[spare area GiB]/[512GiB] = [worst case]/[fresh] ->

[spare area GiB] = ([worst case]*[512GiB])/[fresh]

eller

[worst case] = ([spare area GiB]*[fresh])/[512GiB]

(etter som hvilken ligning du foretrekker å bruke)

 

Dette er bare ca ligninger basert på observasjoner, og worst case representerer 4KB 100% random 100% write 24/7. For lavere belastning antar jeg du kan gange worst case med [seq]:[random] forhold (datamengde skrevet der random refererer til ~4KB random), og noe bedre om det er mye idle tid.

 

EDIT2: Fikset ligningene over ved å bytte [Partisjon GiB] med [spare Area GiB] = [512GiB - Partisjon GiB].

Endret av GullLars
  • Liker 2
Lenke til kommentar

GullLars : Takk for et meget utfyllende svar. Tydelig at du kan mere om SSD'er enn de fleste her inne. Hadde dog ikke forventet den doktor avhandlingen menne :D

 

Edit : Jeg kan jo lage en 300GiB partisjon neste gang jeg gidder å kjøre HDDErase da, men 200GiB holder faktisk til mitt bruk enn så lenge (har bare ett spill inne akkurat nå).

Endret av Betroz
Lenke til kommentar

Om/når du trenger mer plass kan du jo bare utvidde partisjonen i Disk Management (kontrollpanelet).

Nja jeg laget bare 200 GiB RAID array, så kan ikke det.

 

Riktig, Diskmanager ser ikke mer enn raidsetup har gitt, men du kan lage ett raid0 til i Intel raidbios på selvalgt størrelse.. Du vil få en god boost i mtp. ytelse i bencher med denne stripa målt mot OS-stripa, 100-200gb stripe som det er fint å benche på eller har extra spill/apps på...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...