Gå til innhold

SSD-tråden: info om og diskusjon rundt SSD


Anbefalte innlegg

Videoannonse
Annonse

Hvis man ikke vedlikeholder SSD'ene vil de fleste med tiden degraderes.

 

Det er ikke værre enn å kjøre en HDDerase av og til.

Mine X25-M renset jeg i forbindelse med oppgradering av firmware og da hadde flere av dem vært kjørt i 6-7 mnd.

Ytelsen på det tidspunktet var fremdeles meget bra (90%) og kunne helt sikkert ha stått i 1 år eller mer uten problem. (de hadde da FW uten TRIM støtte)

 

Det er nok en sammenheng mellom SSD'er med og uten TRIM kombinert med graden av GC som Ourasi sier, SSD'er med aggresiv GC holder nok lengre. Tingen med en for aggresiv GC er at den vil dra ned levetiden en smule.

 

Jeg tror nok det de mener er at SSD'er som er konstruert og optimalisert for TRIM vil i raid trenge manuelt vedlikehold pga mangelen på rensing vha TRIM.

"Problemet" vil forsvinne når raid driverene slipper gjennom TRIM.

Lenke til kommentar

Det virker som Win7 RC reboots annenhver time har tatt livet av min Intel 160GB G2. Jeg trodde først det kunne være at jeg noen dager i etterkant forsøkte å oppgradere fra RC til RTM, men disken er også borte fra bios, ergo virker den død.

 

Ikke morro.

EDIT:

Jeg forsøkte å bytte SATA port for Intel disken, men ingen bedring. Den blir også stående å henge en liten stund i bios boot der denne disken settes.

Dette blir min andre RMA på Intel SSD disk. :hmm:

Første gang var dog med flash av en dårlig flash fil fra Intel mot en 80G1, mens dette er under helt normal drift.

 

Du har nok vært uheldig men det må være noe mer som spiller inn.

(ikke godt å si hva det kan være, en eller annen uheldig kombinasjon)

 

Hvilken firmware hadde du på den?

 

--

 

Ser at Mushkin kommer med SandForce baserte SSD'er, de kommer med både SF-1200 og SF-1500.

 

"The company is also working on a Sandforce-based SSD series called Calypso. The drives will use the SF-1200 controller and come in 64GB, 128GB, and 256GB capacities, with peak speeds around 260MB/s and max IOPS of about 10,000 with 4k blocks. Mushkin says the Calypso drives should be cheaper than SSDs based on Indilinx controllers, and should launch sometime early next month. The company is also reportedly developing drives that use the quicker SF-1500 controller." (fra TechSpot)

Lenke til kommentar

Når det gjelder RAID, som Anvil sier, så er det SSDer med TRIM og degradering av disse når TRIM ikke er aktivt, det vil gjelde både OS og kontrollere (og drivere) som ikke støtter TRIM, ikke nødvendigvis RAID mode. Om man vet man vil ha høy skrivebelastning med høy andel tilfeldig tilgangsmønster kan det være en fordel å sette av ekstra spare area i disse tilfellene om redusert skriveytelse ikke er akseptabelt. Å øke spare area fra 7% til 15% eller til og med 25% kan utgjøre en betydelig forskjell degraderingen av (sustained) write, spesielt random.

Lenke til kommentar

Skal sette opp ny PC med 1 intel SSD (80) for OS og 2 stk Seagate HDD (1,5T) i raid.

 

Hvordan går jeg frem i BIOS for å sette dette opp? (link?)

 

Hvilke fordeler/ulemper er det å bruke E-sata i forhold til standard sata?

 

eSata er nøyaktig det samme som Sata, bare at den er ekstern. Altså eksterne enheter som er koplet til med Sata = eSata. Med mindre du skal ha diskene utenfor kabinettet ditt er vel eSata uaktuelt.

Lenke til kommentar
Når jeg skal installere OS (foreløpig XP) på en Intel X25-v, er det lurt (mtp ytelse/levetid) å lage èn partisjon på ~30gb, og la resten være ubrukt?

Hvis du kommer til å bruke like mye av det totale lagringsområdet i begge tilfeller, f.eks 20 GB, så tror jeg ikke det skal gjøre noen forskjell.

 

Men hvilken rolle spiller det om SSDen varer i 20 eller 25 år? Min kommer neppe til å bli brut når den passerer 5-6 år uansett om den er i orden eller ikke.

Lenke til kommentar

For windows 7 med TRIM aktivt har det ikke noe å si, men for XP vil det ha noe å si. Når TRIM ikke er tilgjengelig vil det ikke ha noe å si om noe av plassen er ubrukt, så lenge OS har tilgang til LBA, har LBA blitt skrevet til vil de være merket som brukt til de blir overskrevet. Å reservere noe ekstra plass til spare area vil gi redusert degradering av skrivehastighet. Avhengig av hvor hardt disken blir brukt (skriv messig) kan det være merkbar forskjell mellom maks partisjonsstørrelse og 30GiB.

 

For bruk som OS disk med XP burde du også sørge for å stille partition allignment, 1MB offset fungerer bra. (1024KB / 2048 sectors).

Lenke til kommentar

Degradering av SSD er noe jeg har slitt med altfor lenge nå.

Startet med 4 x OCZ Core v2 samt grei dedikert controller kort. Ytelsen var kjempebra i begynnelsen. Etter en stund så ble det merkbare heng, oppimot et par sekunder før maskinen responderte.

 

Vel solgte unna Core serien og kjøpte Intel x 25M G2, denne gangen gikk jeg for 2 stk i raid 0 for å sjekke før jeg la ned mer penger. Nå har jommen meg også disse SSD diskene begynt å virke slappere enn i begynnelsen.

 

Problemet er at jeg kjører virtuelle maskiner via vmware. Og jeg kjører Linux som host os.

Det betyr også at jeg ikke får utnyttet TRIM er det vel som bare virker i Win7?

 

Hva med garbagecollection(?) virker det i det hele tatt i raid 0?

 

Er status per nå at man bare kan blåse i å kjøre SSD i raid 0 om man skal unngå degradering av ytelse? Det vil jo være en katastrofe. Hele årsaken til at jeg gikk over til SSD var jo at SSD skalerte vanvittig og ga en ytelse som var uhørt.

 

Er det måter å motvirker degraderingen på? Vil det hjelpe om jeg lager et raid til som jeg bruker som scratchdisk? Kunne vel kanskje skaffet 4 av Intels 40 GB SSD, da jeg har et ledig controller kort liggende. For om jeg har et eget raid for scratchdisker så kan jeg kanskje formatere bort ytelsestapet? Og en formatering er jo ikke noe en orker til stadighet med systemdisker. I allefall ikke når en er blitt vant til Linux hvor en ikke engang defragmenterer diskene.

 

Forslag til hvordan jeg løser dette?

 

Hjelper ikke å anbefale win 7 som host Os, det er "umulig". Og da blir det heller en ukeslønn el 2 på scratchdisk av DDR2 ram.

Lenke til kommentar

Status er absolutt ikke at man skal blåse i å kjøre raid-0 med SSD.

 

Det fungerer helt utmerket, jeg bruker mine i arbeid hver dag og mine yter helt utmerket.

Bortsett fra ved benching (og i tilfellet Vertex generelt som *var* et mareritt før de kom med en god FW) har jeg ikke hatt merkbar degradering av mine SSDer hverken i raid eller single mode.

(degradering kan selvsagt sees i benchmarks men ikke in real-life)

 

Jeg bruker også mine til VMWare og om du kjører Linux eller W7 har ingen praktisk betydning.

Per i dag får du ikke TRIM uansett så lenge de står i raid.

 

Det er ingen spesielle tiltak du kan gjøre bortsett fra å ikke fylle de for fulle.

Hvis ytelsen ikke er slik den burde være er det enkleste å kjøre en HDDerase.

 

(Over provisioning - dvs å ikke bruke hele kapasiteten er også et alternativ men vil trolig ikke merkes så godt)

 

Hvilken firmware bruker du?

Lenke til kommentar

Status er absolutt ikke at man skal blåse i å kjøre raid-0 med SSD.

 

Jeg bruker også mine til VMWare og om du kjører Linux eller W7 har ingen praktisk betydning.

Per i dag får du ikke TRIM uansett så lenge de står i raid.

 

Det er ingen spesielle tiltak du kan gjøre bortsett fra å ikke fylle de for fulle.

Hvis ytelsen ikke er slik den burde være er det enkleste å kjøre en HDDerase.

 

(Over provisioning - dvs å ikke bruke hele kapasiteten er også et alternativ men vil trolig ikke merkes så godt)

 

Hvilken firmware bruker du?

 

Ok så da er det kanskje rett og slett for mye data på diskene som er problemet? Dessuten så jobber jeg mye med video og store grafikkfiler, og der trengs det jo svært mye plass.

HDDerase er jeg ikke kjent med. Prøver å titte innom tråden her av og til men nå er den jo blitt så stor at det er umulig å orientere seg :-)Får lese meg opp på HDDerase.

 

Du tar forresten feil når du sier at degredering ikke merkesi praksis. For med 4 x OCZ ble det til et kjempeproblem. Maskinen kunne bli uresponsiv i flere sekunder. Det kan selvsagt være en kombinasjon av dårlig FW og fulle disker. Har ikke merket noe slikt med de nye Intel diskene men ser det jo på benchmark ja, og da ble jeg bekymret. For da trodde jeg det var reprise på OCZ diskeraen.

 

Så det du mener jeg kan gjøre for best mulig ytelse er rett og slett flere disker?

 

Tror foresten jeg kan knipe litt på å gjøre hver vm mindre. Kan jo starte der og se om det mengden frigjort plass blir av betydning eller om jeg bare skal bestille et par nye disker.

 

På intel diskene er det vel FW nest siste versjon om jeg husker korrekt. Enten det eller den føre. Har jo vært flere tips her om å ikke kjøre siste versjon.

Endret av mrs.robinson
Lenke til kommentar

Jeg sa ikke at du ikke hadde hatt problemer :)

Jeg sa at jeg har ikke hatt problemer.

 

At du merket det med eldre OCZ SSD'er er ikke noe som overrasker meg i det hele tatt.

 

Hvis du kjører med fulle SSD'er vil degraderingen skje raskere og sannsynligvis tilta til et visst punkt.

Intel skal uansett ikke komme i nærheten av det du har opplevd tidligere.

 

Kjøp flere hvis plass er et problem, det er verdt hver en eneste krone.

 

edit:

Firmware 02G9 kjørte jeg lenge, den støtter ikke TRIM og ytelsen var strålende.

Firmware 02HD er den siste med TRIM, du vil trolig ikke oppleve bedre ytelse med den så lenge de kjøres i raid. Jeg opplever ikke ytelsen som værre med 02HD, fordelen er at man kan rense dem *litt* enklere enn ved HDDerase. Du vil uansett miste data på dem så du må ta en backup uansett hvordan man renser.

 

Det krever da en pc med W7 og aktiv TRIM, har du det er det bare å formatere SSD'en så er den ren.

Endret av Anvil
Lenke til kommentar

Jeg sa ikke at du ikke hadde hatt problemer :)

Jeg sa at jeg har ikke hatt problemer.

 

At du merket det med eldre OCZ SSD'er er ikke noe som overrasker meg i det hele tatt.

 

Hvis du kjører med fulle SSD'er vil degraderingen skje raskere og sannsynligvis tilta til et visst punkt.

Intel skal uansett ikke komme i nærheten av det du har opplevd tidligere.

 

Kjøp flere hvis plass er et problem, det er verdt hver en eneste krone.

 

 

Hmm her er jeg i en kjip situasjon. For i og med at jeg kjører Linux i bunn + at diskene er i Raid 0 så vil ikke TRIM hjelpe meg om jeg har forstått korrekt?

Og TRIM forteller hvilke celler som er ledige etterhvert som data slettes, korrekt?

 

Er det noen løsning tilsvarende TRIM som virker i Linux og Raid 0? Om ikke finnes det noen timeline for når Trim med Raid 0 støtte implementeres i Linux?

 

En interimløsning vil jo være og sette inn et par disker til, men sålenge jeg ikke får benyttet trim så vil degradering være et uungåelig faktum, dog ikke like merkbart som med de første OCZ diskene?

 

HDDerase vil jo også kun være en interimløsning og ikke løsning en ønsker på langsikt. For det betyr jo at en gjevnlig må ta ned systemet, kjøre full backup, kjøre HDDerase og så legge inn data igjen. Det blir mye dobbeltarbeid i en altfor hektisk hverdag. Pluss nedetid og jeg kjører blant annet noen databaser som egentlig går 24/7.

 

Hva om jeg lager et raid 0 med billige SSD disker? Men da maks 4 siden det er max antall porter på controller. Da kan jeg lage stor scratchdisk på det nye Raid oppsettet. I og med at det nye raidet ikke holder systemdata så kan en vel da kjøre HDDerase "on-the-fly", uten å ta ned systemet?

 

Tenker jeg rett nå eller? Er litt sent på natten nå, og glasset snart tomt.

 

Edited: Ser nå at TRIM akkurat har kommet i siste kernel på Linux, så da tar det vel en stund før en kan vente support for Raid 0.

Endret av mrs.robinson
Lenke til kommentar

Du har nok vært uheldig men det må være noe mer som spiller inn.

(ikke godt å si hva det kan være, en eller annen uheldig kombinasjon)

 

Hvilken firmware hadde du på den?

Viste seg at mitt ene tilfelle med problem med en SSD datadisk ikke er pga. RC til RTM men rett og slett en gammeldags "hw har dæva".

 

Muligens fordi PSU+SSD ikke likte tvungen RC restart annenhver time i flere dager før jeg kjørte opp til RTM. Brukte ikke maskinen selv i de dagene den drev å restartet (ikke bra MS!)

Jeg tipper at disse tvungne RC restartene en ukes tid tok "livet av den" (takk MS!). Jeg brukte ikke maskinen i denne perioden da jeg jobbet med helt andre prosjekter i den tiden.

 

Jeg forsøkte også å oppdatere Bios på maskinen samt sette mange forskjellige kontroller moduser i Bios og det merkelige er at på denne maskinen vil den kun synes i Bios om jeg setter "load default bios settings". Gjør jeg den minste endring, på hva som helst som eks nettkort, så forsvinner den fra bios listen. Desverre henger bare boot av Win7 når den er synlig i listen.

 

Jeg forsøkte den i en annen maskin og der kom den opp i Bios listen med en gang, uansett kontroller modus, men av frykt for at noe rart ville skje med den eller maskinen bootet jeg ikke opp.

 

Jeg koblet den i stedet til et eksternt disk2usb kit, da dukker den opp på flere andre maskiner (ikke denne/x38), men "Disk management" sier at disken må initialiseres på nytt, altså den ser den som en ny blank disk uten partisjon etc. Jeg valgte selvf. avbryt på initialisering i håp om at noe fortsatt kan reddes. Jeg hadde en del viktige data der hvor jeg ikke hadde fått oppdatert mine backups den uken :(

 

Ang. firmware

Jeg hadde ikke notert meg dette men visste jeg hadde nevnt det i tråden og etter litt graving fant jeg dette på side 306.

 

02HA

Jeg vet jeg ikke oppgraderte den. Fant også dette som bekrefter 02HA.

EDIT:

Ser jeg har 02HA på disken.

 

Disken kjørte kun som data disk, ikke os eller boot.

Endret av Theo343
Lenke til kommentar
Det er ingen spesielle tiltak du kan gjøre bortsett fra å ikke fylle de for fulle.

Hvis ytelsen ikke er slik den burde være er det enkleste å kjøre en HDDerase.

 

(Over provisioning - dvs å ikke bruke hele kapasiteten er også et alternativ men vil trolig ikke merkes så godt)

Å ikke fylle partisjonen helt har ingen ting å si på SSD når TRIM ikke er aktiv, eneste forskjellen der er at en fullere SSD vil ha mer fragmenterte filer (over LBA, ikke fysisk).

 

Om man har en pratisjon som tar opp all plass på en SSD og bare bruker halvparten til gyldige data vil alikevell over tid alle LBA bli skrevet til, og når de blir ugyldige igjen vil SSDen fortsatt ta vare på dem som falskt gyldige data (SSDen blir aldri informert om at LBA er ugyldig).

Om man derimot kjører en secure erase og lager en partisjon som ikke tar opp all plass vil de tilgjengelige LBA utenfor partisjonen aldri bli skrevet til, og kan aldri bli falskt gyldige, så SSDen er garantert mindre å stokke om på og mer plass å gjøre det på. Den upartisjonerte plassen vil inngå i spare area (overpovisjonering er fra produsent), og kontrollerens Garbage Collection (ja mrs.robinson, GC fungerer i RAID) vil få en lettere jobb og derved gi mindre degradering av skriveytelse.

 

 

Mrs.Robinson, grunnen til det du opplevde med Core V2 er et kjent fenomen og skjedde med single enheter også, det var pga elendig random write, spesielt når alle LBA hadde blitt skrevet èn gang. Da medførte alle skriveoperasjoner både en lesing, skriving, og sletting (copy-erase).

Endret av GullLars
Lenke til kommentar

GullLars,

 

Ledig plass på SSD er fremdeles en vesentlig faktor både med og uten TRIM.

 

Dette finner man mye om på alle forum og så og si alle anbefaler 20% ledig plass eller der i området, inklusive Anand.

I praksis fungerer det slik at mer ledig plass gir mer/jevnere ytelse.

 

Link til Anandtech : Forget About Invalid Data and Worry About Free Space

 

Intel's kontroller er dynamisk og fungerer best så lenge det finnes ubrukte LBA. (noe TRIM sørger for hvis det er aktivt)

Selv med TRIM trenger Indilinx baserte SSD'er GC for å fungere.

Lenke til kommentar

Beklager å være "contrarian" her men jeg er uenig. Har du en teknisk forklaring eller data å presentere som viser at ledig plass på en partisjon på en SSD uten TRIM har noen effekt på ytelse?

Jeg har vært ute for flere tilfeller hvor jeg har stått alene (eller i overveldende mindretall) med et synspunkt mot mange andre, og ikke gitt meg og blitt demonstrert riktig. I de to tilfellene jeg kan huske å hatt feil var det flaut, men det er alltid best å vite hva som er fakta.

 

Jeg har gitt mitt argument for hvorfor jeg velger å stå på synspunktet mitt med ledig partisjonert plass vs upratisjonert på SSDer uten TRIM, og blir ikke lei meg om jeg blir vist feil.

Teorien er oppsummert som SSDer kan ikke skille gyldige LBA og LBA som har inneholdt gyldig data og så blitt slettet når TRIM ikke er aktivt. Dette betyr at SSDen må ta vare på alle LBA som har inneholdt gyldig data.

 

Jeg ser du har linket til AnandTech som kilde, og har uthevet og understreket poenger her som støtter mitt synspunkt.

Moving On: Forget About Invalid Data and Worry About Free Space

 

The existence of TRIM changes the way we test, something I alluded to in the SSD Relapse. Thankfully, we come prepared.

 

In previous articles we had to test SSDs in two conditions: new and used. The new state is just after a secure erase, the used state required us to write data to every user accessible portion of the drive first before benchmarking. The former resulted in great performance, the latter meant the SSD had to do a lot of juggling of existing data whenever it went to write. The second scenario no longer exists with TRIM. The act of formatting your drive or deleting files (and emptying the recycle bin) will TRIM invalid data.

 

Performance in a TRIM enabled system is now determined not by the number of invalid blocks on your SSD, but rather the amount of free space you have. I went into a deep explanation of the relationship between free space and the performance of some SSDs here.

 

TRIM will make sure that you don’t have to worry about your drive filling up with invalid data, but it doesn’t skirt the bigger issue: dynamic controllers see their performance improve with more free space.

 

My rule of thumb is to keep at least 20% free space on your drive, you can get by with less but performance tends to suffer. It doesn’t degrade by the same amount for all drives either. Some controllers are more opportunistic with free space (e.g. Intel), while others don’t seem to rely as much on free space for improved performance. Addressing performance degradation as drives fill up (with valid data) will be one of the next major advancements in SSD technology.

Jeg er forresten enig med Anand i 20% "free space" totalt om man regner det som [reservert plass]+[ubrukt plass].

For SSDer med TRIM får man best effekt med mest mulig ubrukt plass siden det samtidig gir minst fragmentering av filer over LBA (ikke at det har så mye å si i praksis).

For SSDer uten TRIM er det en fordel å ha mest mulig som reservert plass siden kun det blir brukt til wear leveling og GC, det er alikevell en fordel å ha ~5% ledig formattert kapasitet for å unngå massiv filfragmentering over LBA. Kommer man ned i under 1-2GB ledig plass blir det fort massive mengder filfragmenter, og store muligheter for små fragmenter som kan påvirke sekvensiell leseytelse, spesielt over lengre tid. Med 1GB ledig plass i et års tid på OS partisjon i god bruk blir det ekstremt med fragmenter som kan bli veldig små.

 

Jeg har gjort et overslag og funnet at i RAID (eller uten TRIM) kan det være greit å partisjonere 65-70 GiB pr 80GB x25-M og sikte inn på 60-65 GiB brukt plass (avhengig av skrivebelastning). Om man har lav skrivebelastning og prioriterer plass over skriveytelse er det egentlig ikke nødvendig å sette av mer spare area på Intels SSDer.

Endret av GullLars
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...