Gå til innhold

RAID for dummies og viderekommende


Anbefalte innlegg

Videoannonse
Annonse

For å utvide et raid etter du har byttet disker (rekalkulere raid størrelse): F.eks ved Raid 1+0

Areca:

 

-Logg inn på webgui.

- Information -> Raid Set Hierarchy

- Kopier Raid set navnet på det raidet du vil rekalkulere størrelse på.

1429836.jpeg

- Raid Set Functions -> Rescue Raid Set

- I feltet "enter keyword" skriv RESETCAPACITY xxx (lim inn raid set navnet istedet for xxx)

- Hak av for "confirm the operation" og trykk submit.

Utvide volum.

Etter at kapasiteten på raidsettet er rekalkulert:

- Volume set functions -> Modify volume set.

- Velg riktig volum

- Skriv inn ny kapasitet på volum.

- Hak av for "confirm the operation" og trykk submit.

Kontrolleren vil da starte med å utvide volumet. Dette vil ta noe tid.

Etterpå kan du utvide partisjonen i Windows disk management eller tilsvarende / 3.part for ditt operativsystem. Reboot hvis ikke windows registrerer utvidelsen.

 

Orginal post:

http://www.diskusjon...post&p=20377608

--------------------------------------------

 

Diverse linker:

 

 

 

 

Areca 1880ix-24 Battleship! 2GB/s + http://www.diskusjon...owtopic=1255245

 

 

10x SAS VS 6x ssd: http://www.diskusjon...;#entry13521018

 

 

Den Store SAS tråden: http://www.diskusjon...howtopic=889419

 

Areca 1680ix-12 (Seagate SAS Battleship 1GB/s +!): http://www.diskusjon...owtopic=1056106

 

Areca 1680ix review: http://www.xbitlabs....c-1680ix16.html

 

 

FC test: File copy test.

 

http://www.diskusjon...=...&p=14180879

 

SAS expander:

 

http://www.hardforum...d.php?t=1484614

Endret av Nizzen
Lenke til kommentar

Reservasjon for SS og annet om raidet jeg har fra 790FX hovedkortet mitt, dette vil komme på mandag når jeg kommer hjem. Si fra hvis jeg skal fjerne dette nizzen ;)

 

Synes forresten det var på tide at denne tråden kom, håper på det kommer en sticky her og at vi kan få samlet opp diverse raid spørsmål. Og vi har fått rette mann til å ha denne tråden også, nå får du mulighet til å dele dine praktiske erfaringer og skryte av monsterkortet ditt ;)

 

(som en parentes, det burde også lages en egen sticky tråd om eksterne harddisker. Det har vært alt for mange like spørsmål om de i det siste)

 

EDIT: Svar @ sudan2k og 007CD sine poster under:

Pluss at dette forhåpentligvis blir en samletråd for FAQ om raid på dette forumet. Å linke til eksterne kilder med info om raid slik som wikipedia gjør heller ikke noe nei, og at det står tidlig i tråden er fint.

Endret av GullLars
Lenke til kommentar

Mitt lille bidrag:

 

Raid 0+1

Kombinasjon av raid0 og raid1. Det betyr at man har to sett med stripede disker. Étt av settene er et speilbilde av det andre.

 

Noen viktige egenskaper:

 

1 Minste antall disker: 4.

2 Tapsprosent: 50%. 4x 100Gb-disker gir 200Gb kapasitet.

3 DataSikkerhet: Én disk kan feile, og man kan redde sine data.

4 Ytelse: Samme som for raid0/stripe.

5 Tilgjengelighet: God. Windows støtter raid0+1 samt at de fleste kontrollerkort med 4 kontakter (sata) støtter raid0+1.

 

På punkt 1 og 2 vil raid5 være bedre pga det sløser mindre med plassen.

 

Punkt 3 og 4: Raid0+1 er verken bedre eller dårligere enn raid5. Når det kommer til r/w ytelse så er det i teorien slik at når antallet disker blir mange så bør raid5 være bedre, men tror ikke noen har fått testet dette ut ennå.

 

En annen ting er at mange billige raid-kontrollere støtter raid0+1, men ikke raid5. Muligens fordi det er enklere å lage en en kontroller som støtter raid0+1 enn raid5. Vanlig windows støtter ikke raid5, man må kjøre en server-versjon for å ha støtte for raid5.

 

post-87910-1232063160.png

Endret av geir__hk
Lenke til kommentar

Raid 0+1, (eller kanskje dette var raid 10? skal kunne takle at opp til ALLE diskene på den ene raid-0 kolonnen feiler så lenge alle på den andre forblir intakt. Hvis den samme disken feiler på begge raid-0 kolonnene samtidig vil data gå tapt.

 

Raid 10 er lettere å dra siden dette ikke krever kalkulering av parity-data slik som raid-5 gjør eller 6 gjør. Teoretisk skal leseytelsen til hele raidet være antallet disker ganger leseytelsen til èn disk. Mens skriveytelsen teoretisk skal være skriveytelsen til til èn disk ganget med halvparten av antall disker i raidet.

Raid-5 gir (teoretisk) både lese og skriveytelse som er antallet disker i raidet minus èn (til parity data) ganget med ytelesen til èn disk.

 

Rett meg hvis jeg har forstått konseptet feil.

 

EDIT: rettet en tull :p

 

007 charlie delta får rette meg og bre ut sine kunskaper, og så fjerner jeg dette når han har postet ;)

Den delen som kommer nå vil bli interresant for meg etter hvert, vurderer sterkt å få meg en lagrings-server med FTP host til sommeren/høsten.

Endret av GullLars
Lenke til kommentar

Nå som begynner delen er oppe så skal jeg se om jeg klarer å få satt av litt tid til den mer avanserte RAID delen blant annet de sære forskjellene på RAID 0+1 og RAID 10 for de er ikke like.

 

Pluss at jeg skal ta med noen sære RAID nivå som få kjenner til slik som RAID 5EEE :p

Lenke til kommentar
Raid 0+1, (eller kanskje dette var raid 10? skal kunne takle at opp til ALLE diskene på den ene raid-0 kolonnen feiler så lenge alle på den andre forblir intakt. Hvis den samme disken feiler på begge raid-0 kolonnene samtidig vil data gå tapt.
Ja, det er riktig.

 

Hva angår raid6, så er vel det (hvis jeg ikke husker feil) stort sett samme som raid5, men dobbelt opp med paritetsdata, slik at dataene er intakte selv om 2 disker feiler samtidig.

 

Og så ser det ikke ut til at hw-raid og software raid er forklart.

Lenke til kommentar
Raid 0+1, (eller kanskje dette var raid 10? skal kunne takle at opp til ALLE diskene på den ene raid-0 kolonnen feiler så lenge alle på den andre forblir intakt. Hvis den samme disken feiler på begge raid-0 kolonnene samtidig vil data gå tapt.
Ja, det er riktig.

 

Hva angår raid6, så er vel det (hvis jeg ikke husker feil) stort sett samme som raid5, men dobbelt opp med paritetsdata, slik at dataene er intakte selv om 2 disker feiler samtidig.

 

Og så ser det ikke ut til at hw-raid og software raid er forklart.

 

HW og Software RAID kommer... Vi 2 deler guiden, det som er oppe nå er for de som er helt grønne på RAID.

Og om vi begynner å snakke om HW og Software så blir de som oftest litt forvirret, de får svelge det der først så tar vi software og hardware RAID for de som er litt mer viderekommende i del 2 som kanskje blir min post eller noe, vi får se.

Lenke til kommentar

En liten korrigering vedr raid 5

RAID 5.

 

minimum antall disker: 3

maks antall disker som kan svikte i minimums konfigurasjon: 1

...

- RAIDet gir ikke maks plass, her er det en taps prosent på 62% til paritet.

 

Det korrekte er at man "taper" 1 disk i paritet, uansett antall disker.

Paritet spres over alle disker så den er ikke lagret på 1 spesifik disk.

Formelen for hva man sitter igjen med er n-1/n

 

I et raid-5 med 3 disker (3-1/3=0,66) da taper man 33,33%

I et raid-5 med 4 disker (4-1/4=0,75) da taper man 25%

osv.

Lenke til kommentar

Linux Software RAID:

 

Fordeler:

Billig

Kan flyttes helt uavhengig av hardware

 

Ulemper:

Noe lavere ytelse

Ingen BBU

 

RAID nivå støttet i Linux sin implementasjon:

RAID0, RAID1, RAID4, RAID5, RAID6 og RAID10.

 

Andre funksjoner:

hot-spare

online disk ekspandering

"scrubbing" av disker

 

Hvordan sette opp ett typisk RAID5 med 4 eller fler disker:

 

Først opprett Linux RAID AutoDetect partisjonen på diskene som skal brukes.

root@raid:~# cfdisk /dev/sd
sda   sda1  sda2  sdb   sdc   sdd   sde

 

Når alle diskene er satt opp med denne partisjonen så er det bare å lage selve raidet. Jeg har her satt chunk size til 256k, noe som ofte vil hjelpe på ytelsen hvis man jobber med store filer. --level=5 spesifiserer at vi ønsker raid5, mens --raid-devices spesifiserer hvor mange disker vi legger til i raidet.

root@raid:~# mdadm --create /dev/md0 --chunk=256 --level=5 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
mdadm: array /dev/md0 started.

 

Så for å sjekke at RAIDet faktisk fungerer:

root@raid:~# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]
  25157376 blocks level 5, 256k chunk, algorithm 2 [4/3] [UUU_]
  [======>..............]  recovery = 31.1% (2609168/8385792) finish=4.4min speed=21666K/sec

unused devices: <none>

 

Som man ser er linux i gang med en "rebuild", raidet er aktivt og kan brukes, men med noe redusert ytelse frem til alle diskene er synkronisert. Men før vi tar i bruk raidet, kan det være en fordel å legge til raid informasjonen i /etc/mdadm.conf(kan eventuelt ligge i /etc/mdadm/mdadm.conf litt avhengig av distro).

root@raid:~# mdadm --detail --scan >> /etc/mdadm/mdadm.conf

 

Forøvrig kan det være lurt å skifte MAILADDR i mdadm.conf fila, til en mailadresse som er i aktiv bruk, i tilfelle en disk skulle falle ut av raidet.

 

Slenger med en liten ytelses test fra software RAIDet gjennom VMWare Server 1, som viser 285mb les, 196mb skriv og 146mb rewrite. Rimelig heftig for 4 stk virtualiserte disker.

Version 1.03b	   ------Sequential Output------ --Sequential Input- --Random-
				-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine		Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
raid		 1G		   196169  47 146828  55		   284158  93 +++++ +++
				------Sequential Create------ --------Random Create--------
				-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
		  files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
			 16  4754  14 +++++ +++  4745  14  4706  13 +++++ +++  3212   9
raid,1G,,,196169,47,146828,55,,,284158,93,+++++,+++,16,4754,14,+++++,+++,4745,14,4706,13,+
++,+++,3212,9

Ok, den så jo bare helt jævlig ut på forumet her, mene hvis du leter godt finner du nok tallene :p

Neste leksjon OpenSolaris og ZFS.

 

forøvrig ligger det endel ytelses tester både på hardware kontrollere og software raid på adressen under.

 

http://wiki.smlug.net//wikka.php?wakka=BonnieBenchmarks

Endret av kpolberg
Lenke til kommentar
  • 2 uker senere...

Siden de fleste raid ekspertene jobber med denne tråden, og det er et passende sted å ha dette på, så tenkte jeg at jeg skulle spørre her.

Jeg skal kjøpe 2 raid kontrollere for testing av SSD. Èn kontroller i prisklassen 3000-5000 med PCIe x4 eller x8, og èn kontroller med PCIe x1 til under tusenlappen.

 

Formålet og bruken for 4x/x8 kontrolleren skal være å gi maks IOPS og båndbredde for bruk med SSD i raid-0 (og muligens raid-5, ikke viktig). Maks båndbredde skal helst være opp mot 800MB/s så det kan testes 3 SSD i raid-0 uten å treffe taket, og gjerne litt over så den kan teste 4. Den må ha 4 porter, kan gjerne ha 8. Og den skal kunne støtte windows XP, Vista, og W7 (og helst også linux). (Aller helst støtte Vista og W7 "out of the box"). De jeg hadde i tankene var Rocket Raid 3520/22, og Adaptec 5805, eller tilsvarende.

 

Formålet og bruken for x1 kontrolleren er å kunne ha en enkel eller 2 SSD i raid-0 uten å begrense skrive eller lesehastighet slik som noen sørbroer eller integrerte raid kontrollere kan gjøre. Jeg har ikke noe stort problem med dette selv, men det er fint å kunne demonstrere for andre der ute med Intel ICH 8/9/10 (eller eldre hovedkort som støtter PCIe) hvordan resultatet blir på et billig alternativ. Den må støtte XP, Vista, og W7, og helst også linux. Jo mindre/enklere drivere det er å installere for windows jo bedre.

 

Jeg håper på et noenlunde raskt svar, siden jeg skal bestille deler denne uka.

 

EDIT: begge kortene må støtte boot (alså kunne ha OS installert og kjøre dette fra array)

Endret av GullLars
Lenke til kommentar

Hvorfor skal du plent ha en svindyr kontroller og resten billige?

 

Har forøvrig satt opp et SW-RAID i Ubuntu med SATA-kontrollere på PCIeX4-porter, har ikke fått kjørt benchmark på RAIDet enda, men tipper jeg får gjort det snart.

 

Forrige RAID jeg kjørte på vanlige IDE-kontrollere ga en resync hastighet på type 14MB/s, mens dette RAIDet ga en resync hastighet på 94MB/s, så er litt spent på hastigheten jeg kan tyne utav det.

Lenke til kommentar

Jeg skal ha et "svindyrt" kort for å vise benchmarks av hva entusiaster kan forvente av diverse SSD de tenker på for større raid med vill fart, og et billig kort for å vise hva folk flest kan forvente hvis de vil ha SSD til en grei penge på et hovedkort som ikke er glad i SSD fra sørbrua.

 

Svindyrt i entusiast-sammenheng er sånn som nizzen har, SAS raid kort til godt over 10.000 ;)

 

Glemte forresten i posten over at begge kortene må støtte boot.

 

Edit: Grunnen for at jeg skal kjøpe disse kortene er at jeg vil gjøre benchmarks av SSD/HDD for hardware.no hvis jeg får det til å funke tilfredsstillende. Hvis ikke så har jeg fått meg litt utstyr som jeg kan bruke uansett ;)

Endret av GullLars
Lenke til kommentar

Lurer på å oppgradere mine hardisker, kjører raid WD 150GB raptor i raid 0 atm.

 

Tenkte først og kjøpe et par brukte 150 GB for å spe på i raid oppsettet, usikker hvor stor boost dette gir?

 

Senere har Velociraptorene kommet på 74GB til ca 1400 kr. 2 sånne eller flere i raid 0 kunne også vert et alternativ. Men da bør jeg selge de 2 150GB jeg har for å forsvare investeringen.

 

Til slutt er det jo SSD som kommer for fullt, selv om jeg føler teknologien ikke er helt moden enda.

 

Noen som har en annbefaling hva jeg bør gå for? Trives forøvrig veldig godt med Raid 0, skjelden disk trøbbel. Og om noe skulle gå galt er det sikkert på sinn plass med en formatering uansett.

 

Hva med å Legge til litt hvordan man aktiverer Raid i operativsystemer og hovedkort Nizzen?

Endret av guttorm
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...