Gå til innhold

ZFS Raid vs Hw-Raid kontroller


Anbefalte innlegg

Etter å ha lest mangfoldige tråder/inlegg på forumet her ang zfs og hvor bra RAID funksjonen er i linux så har jeg noen spørsmål

 

HW info:

Pr nå sitter jeg med 1 x Adpatech 5805 som er koblet til 2 DAS kabinett hver på 3 Arrays av RAID 50 + 1 Adaptech 51645 med 16 disker fordelt på 2 Arrays, en Raid 6 og en Raid 50.

Disse er konfigurert på et Gigbyte AM3+ HK med en FX-6100 proc, 16Gb minne. Alle nettverksort hos meg er Intel.

Bruker en cisco SMB300 26 ports switch til stam switch og Cat 6 kabel overalt.

Software er intel 2012 Server'e (takket være et technet abb. om noen skulle være i tvil om det)

 

Nå til spørsmåla :

 

1. Hva slags ytelse kan jeg forvente av et ZFS Raid konfigurert som feks RAID 50?

2. Hva slags throughput er 'normalt' for ZFS (tenker da på at jeg streamer 3D BD ISO's til Xtreamer Podigy 3D) Og det er ikke mye 'hikke' som skal til før man merker det på 3D filmer.

 

3.En test oveføring fra kontroller til kontroller (Raid 50 -> Raid 50) med en fil på 43,8 GB tok 90 sekunder - er dette en ytelse et array med ZFS kan matche?

 

4. Hva slags kontroll panel / muligheter har man ? jeg tenker på adaptech har sin managing software der man kan styre det meste og enkelt sette opp arrays etter ønske. Hvordan overvåker man array's med linux og ZFS?

 

Skal til å revurdere serverene mine , må ha top notch ytelse :) Så derfor spør jeg om dette. Hittil har jeg kommet frem til følgende alternativer:

 

 

Beholde Adaptech'ene - ulempe: de blir jææææ... varme fordel: null arbeid

 

Anskaffe Areca's - ulempe: detta blir dyrt fordel: mulig ytelses økning

 

Benytte linux og ZFS - ulempe: aner ikke hvor å begynne fordel: ??

 

 

Håper noen kan komme med noen gode innspill, har ikke tenkt å gjøre dette imorgen - mye skal vurderes både arbeid,pris og ikke minst dataene skal være 100% sikre under hele den event flyttingen

 

 

mvh

Snabel

Lenke til kommentar
Videoannonse
Annonse

Nå har du allerede kjøpt en (to?) kontrollere til noen tusinger, så da er det antagelig best for deg å bruke denne. Du kunne fått et par gode disker for prisen av en slik kontroller, generelt vil jeg si det er en bedre deal.

 

Selv med en kontroller som din kan faktisk raid i software i en del tilfeller gi konkurransedyktig ytelse. Du har en grundig test her:

http://www.linux.com...l-software-raid

men den viser ikke zfs, google er riktignok din venn, du finner mange tester av zfs også. Personlig synes jeg det er mer interessant å se på btrfs i den sammenhengen, og denne viser muskler i raid10 konfigurasjon:

https://btrfs.wiki.k...vice_Benchmarks

En ting du kan se på disse testene er at filsystemet faktisk betyr en god del for resultatet. For md raid her ser ext4 ut til å være sterkeste kort i dag, kanskje ikke rart siden det er dette er filsystemet Google satser på:

http://erikugel.word...nux-filesystem/

 

Fordel med raid i software? At det er uavhengig av hardware vel. Du kan bytte ut all hardware og beholde raid'et ditt like greit. Mange har fått en nedtur når raid-kontrolleren tok kvelden og de ikke fikk lest ut noe data fra diskene. Fleksibilitet er et annet stikkord, antall disker er ikke begrenset av portene på kortet. For billigere raid-kort kan gjerne ytelsen være bedre i software.

Endret av Del
Lenke til kommentar

Bah, du kjører jo windows. Bare på filsystemet har du antagelig en god del å hente. Det er velkjent at ytelsen på windows er elendig for store antall filer.

Ja, det var faktisk den utløsende faktoren til at jeg begynte å gå over til GNU/Linux, *BSD evt. Solaris. Og ikke bare at ytelsen var elendig, filer ble borte i Windows når det var mange filer på filsystemet. Tilsvarende har ikke skjedd etter at jeg gikk over. Og, nå jobber jeg med Linux og åpen kildekode.

Lenke til kommentar

Hardware raid med write cache vil alltid vere ein god del raskare ein JBOD og ZFS.

Det er også mange andre ting som kan ha betydning for ytelse. F.eks real time compression, antall iops osv...

 

ZFS er derimot overlegent for dei som ønsker konsistent data. FreeBSD og ZFS har for meg dei siste 3 åra vore heilt fantastisk. Disker som ser ut til å begynne å slite blir kasta rett ut for den minste ting, Med Linux så tilgir den disken mykje oftare og du risikerer at raidet når eit nivå der backup blir absolutt siste utveg.

Lenke til kommentar

Ja, ZFS har fungert MEGET bra for mine behov de siste 4 årene jeg har brukt det, med Solaris 10 som operativsystem. Skal jeg oppgradere er jeg usikker på om jeg skal installere Solaris 11 (sist jeg sjekket tillot Oracle Solaris for evaluering og/eller ikke-kommersielt bruk) eller FreeBSD. Akkurat nå er jeg på Solaris 10 release 9/10, hvis jeg ikke husker feil.

Endret av stigfjel
Lenke til kommentar

Så litt nærmere.på statusen til btrfs. Kan faktisk se ut som det er modent nå. Skal legge.det inn på noen av maskinene mine når ånden er over meg. Kan også se ut som 3.7 kjernen vil få de siste raid-nivåene på plass, men da må Chris kjappe seg. Isåfall har zfs få fordeler igjen. Spennende tider for de som vil bake sin egen kjerne med andre ord.

Lenke til kommentar

Så litt nærmere.på statusen til btrfs. Kan faktisk se ut som det er modent nå. Skal legge.det inn på noen av maskinene mine når ånden er over meg. Kan også se ut som 3.7 kjernen vil få de siste raid-nivåene på plass, men da må Chris kjappe seg. Isåfall har zfs få fordeler igjen. Spennende tider for de som vil bake sin egen kjerne med andre ord.

Var på Red Hat konferanse i september, og det var ikke det inntrykket jeg fikk. BTRFS lå visst i "most dangerous" branch fortsatt, så det er nok en stund til jeg tør å begi meg ut på det...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...