Gå til innhold

OCZ Vertex SSD


Anbefalte innlegg

Videoannonse
Annonse
  • 4 uker senere...

Sitter og prøver å flashe denne til 1.3, men selv om disken er tilgjengelig i bios så får jeg beskjed om at maskina ikke finner disken når jeg kjører FWupdate.

 

Har fulgt denne når jeg skulle sette opp en bootbar USBdisk:

 

http://www.ocztechnologyforum.com/forum/sh...ead.php?t=57516

 

Er det så enkelt som at usbdisken ikke har drivere til diskcontrolleren? Og hvordan kan jeg eventuellt løse dette problemet? Har testet på forskjellige maskiner også.

Lenke til kommentar

Har ikke hatt noen problemer med å flashe fw så langt.

 

Hvilken hardware har du?

 

Det viktigste er at du må sette kontrolleren i IDE mode, ellers skal det være rett frem.

 

Et lite tips, ikke flash til 1.4XX, det er mange problemer rundt disse betaene enda. Har selv gjort det på min 250GB'er og angrer som en hund.

Det er risikabelt å nedgradere til 1.30 igjen men tror nok at jeg prøver det uansett.

Lenke til kommentar
  • 2 uker senere...

Da har jeg endelig fått systemet mitt stabilt. Kastet ut Adaptec 5445 kontrolleren og satt i et Areca 1680ix-12 kort i stedet.

 

Her er de første resultatene:

post-23398-1251985599_thumb.png

post-23398-1251985619_thumb.png

post-23398-1251985683_thumb.png

post-23398-1251985687_thumb.png

 

Litt fugl og fisk her synes jeg. Synes HD Tune resultatene var litt lave. CrystalDiskMark var skuffende på 4k les. ATTO hadde noen merkelige resultater, spesielt på 32k les. Spesielt at lesehastigheten er mye lavere enn skriveresultatet.

 

Noen som har noen formening om disse resultatene?

Nizzen, du har jo god erfaring med denne kontrolleren?

Lenke til kommentar

For å få fine og realistiske 4KB random read resultater kan du kjøre IOmeter. Du finner link til oppsett i siggen min.

Anbefalt oppsett siden du har RAID kontroller:

20GB lengde (for å sikre at cache ikke slår betydelig inn).

1 minutt lengde.

Queue depth (# of outstanding IOs) = 64

100% read, 100% random, 4KB blocks.

 

Med QD=64 burde random read fra vertexene skalere. Med QD=1 bruker (slik som crystal har) bruker du i praksis bare èn av gangen... Du får alså (1/(responstid i sekunder))*blokkstørrelse i MB/s.

 

Skriveresultatene dine i ATTO kan du egentlig se på som "burst" tall, siden lengden på testen er mindre enn cache størrelsen din...

Atto har også en kjent bugg med SSD der det hender resultatene ved èn blokkstørrelse blir alt for lave.

 

Hvor mange vertex har du egentlig i RAIDet dit? 4?

Endret av GullLars
Lenke til kommentar
For å få fine og realistiske 4KB random read resultater kan du kjøre IOmeter. Du finner link til oppsett i siggen min.

Anbefalt oppsett siden du har RAID kontroller:

20GB lengde (for å sikre at cache ikke slår betydelig inn).

1 minutt lengde.

Queue depth (# of outstanding IOs) = 64

100% read, 100% random, 4KB blocks.

 

Med QD=64 burde random read fra vertexene skalere. Med QD=1 bruker (slik som crystal har) bruker du i praksis bare èn av gangen... Du får alså (1/(responstid i sekunder))*blokkstørrelse i MB/s.

 

Skriveresultatene dine i ATTO kan du egentlig se på som "burst" tall, siden lengden på testen er mindre enn cache størrelsen din...

Atto har også en kjent bugg med SSD der det hender resultatene ved èn blokkstørrelse blir alt for lave.

 

Hvor mange vertex har du egentlig i RAIDet dit? 4?

 

 

Glemte å skrive at det er snakk om 7stk 30GB Vertex disker. Firware 1.30.

Skal kjøre en test av IOmeter og poste strax:)

Lenke til kommentar

127 MB/s ved 4kb random read er en del bedre ja. Mystisk nokk er det mindre enn èn x25-M klarer...

Ourasi har postet en benchmark der 2 x25-M klarer 76.000 IOPS = 304 MB/s 4kb random read.

Anvill postet nylig denne, 3x x25-m 160GB gen2 på en LSI 9260-8i. 827MB/s sekvensiell les.

 

Hvilken stripe og cluster størrelser har du? Og har du på WBC eller andre former for caching?

 

EDIT: Du har veldig fin responstid da <2ms @ QD=64 er veldig bra.

Ourasi hadde ca 0,8ms responstid på sine 76k IOPS @ QD=64.

 

Kan du ta en random write med samme instillinger?

Og muligens en sekvensiell les med 2MB pakker og QD=16 (bare for å ta et tall som gir litt kø)

Endret av GullLars
Lenke til kommentar
127 MB/s ved 4kb random read er en del bedre ja. Mystisk nokk er det mindre enn èn x25-M klarer...

Ourasi har postet en benchmark der 2 x25-M klarer 76.000 IOPS = 304 MB/s 4kb random read.

Anvill postet nylig denne, 3x x25-m 160GB gen2 på en LSI 9260-8i. 827MB/s sekvensiell les.

 

Hvilken stripe og cluster størrelser har du? Og har du på WBC eller andre former for caching?

 

EDIT: Du har veldig fin responstid da <2ms @ QD=64 er veldig bra.

Ourasi hadde ca 0,8ms responstid på sine 76k IOPS @ QD=64.

 

Kan du ta en random write med samme instillinger?

Og muligens en sekvensiell les med 2MB pakker og QD=16 (bare for å ta et tall som gir litt kø)

 

Det var jo noen ville resultater Ourasi og Anvill hadde da! Visste ikke at Intel diskene var gode for slike tall! Wow :thumbup:

 

Stripestørrelsen min er 128k, mens cluster er 4k. Jeg aner virkelig ikke hva jeg bør sette dette til. Men 128k stripe er vel kanskje i minste laget? Men jeg finner ikke noen mulighet for å sette stripestørrelsen høyere enn 128k i Areca'en. Er ikke dette mulig?

post-23398-1252044485_thumb.png

Lenke til kommentar

Det fungerer grovt slik at jo større stripe du har jo høyere sekvensiell ytelse får du. Jo mindre stripe du har jo bedre skalering av IOPS får du.

 

Hvis du tester med ATTO på en singel SSD av de du skal RAIDe, så finner du en blokkstørrelse hvor ytelsen flater ut, normalt 32-64kb. Hvis du tar denne blokk størrelsen og ganger den med antall SSDer du skal RAIDe, og så velger den stripestørrelsen (eller neste over om du ikke har 2^n enheter) vil du få maksimal transfer rate. Personlig synes jeg det er ganske bortkastet å ha 500+ MB/s transfer rates.

 

Hvis du heller vil fokusere mot real wold ytelse kan du optimalisere slik at du får fortsatt en god del båndbredde, men små nokk stripe over hver SSD til å kunne booste IOPS for mellomstore pakker. F.eks. 16kb av stripen over hver SSD vil gi en kanskje 10-30% reduksjon i maks båndbredde, men øke IOPS for alle blokker på 32kb og over. Med 8kb stripe over hver enhet begynner du sansynligvis å miste nærmere 25-40% maks båndbredde, men dobler IOPS (eller halverer behovet for QD) for pakker på 16kb og over.

 

128kb stripe / 7 enheter = 18kb over hver enhet. 64kb stripe / 7 enheter = 9kb over hver enhet.

 

7 SSDer i RAID-0 blir litt vanskelig å regne på siden det ikke går opp med cluster størrelser og sånt, men du tar poenget i alle fall.

Lenke til kommentar
Bør NCQ på kontrolleren være på eller av?

 

Jeg har det av iallefall. Mener på at jeg fikk bedre ytelse av det. NCQ mend raid-0 er jo ikkje noe mening. Iallefall ikkje når man har kontroller.

 

Har du noen anbefalte innstillinger på Areca kontrolleren?

Regner jo med du har forsket en del på Vertex/Areca..

Lenke til kommentar

Hei (gidder ikke lage ny tråd :p)

 

Jeg har nærmest 0 peiling på SSD disker, eller lagringsmedier generelt.

 

Er på utkikk etter en harddisk til mitt operativsystem (Windows 7) + noen småprogrammer (alt etter hva plassen strekker til).

 

Har sett mye på:

http://www.netshop.no/aspx/produkt/prdinfo...spx?plid=129733

(Intel 80GB X25-M SSD 2,5" S-ATA II GEN2)

Kan den anbefales?

 

Burde jeg legge over de spillene jeg spiller mest også på en slik SSD for best ytelse?

 

Takk :)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...