Gå til innhold

Areca 1880ix-24 Battleship! 2GB/s + 140k+ IOPS


Nizzen

Anbefalte innlegg

Problemet var vell at WD Green's TLER var satt for høyt eller lavt i forhold til enterprise disker, så det kunne føre til at de droppet ut av RAID. Med ny firmware der du kan stille på følsomheten/tolleransen RAID kontrolleren har ovenfor TLER burde det ikke være noe problem lenger (med dropping av disker).

Lenke til kommentar
Videoannonse
Annonse
  • 2 uker senere...

I helgen ser det ut som jeg får endelig kjørt softwareraid med 2 stk Areca 1880 kontrollere :)

 

En iometer 4k random read cachetest kan bli spennende! Lurer på om jeg får over 300k IOPS?

 

Noen som vil komme med noen gjetninger på hvor mange iops jeg kan klare?

 

 

 

 

 

Lenke til kommentar
  • 5 måneder senere...

Noen som har testet 4TB disker på kontrolleren, eller evt har noen å anbefale på generelt grunnlag? Begynner å gå tom for plass :thumbdown:

Det er ikkje noe forskjell på å støtte 3 eller 4 TB disker. Siden Areca virker å støtte det meste, så er det ikkje feil å velge Areca

Så lenge du har dype lommer er Areca aldri feil :)

Lenke til kommentar

Det er ikkje noe forskjell på å støtte 3 eller 4 TB disker. Siden Areca virker å støtte det meste, så er det ikkje feil å velge Areca

 

Ja, den støtter disker over 2TB, men jeg lurte på en konkret anbefaling.

Har kun hatt samsung på kontrolleren til nå, men de er jo slukt av Seagate... Er det forsatt lurt å holde seg unna WD green?

 

Edit: Siden 4TB ikke var klar før februar, kjøpte jeg liksågodt 4 st Samsung F4 2TB. Nå blir det spennende å se hvordan Arecaen takler utviding fra 4 til 8 disker, samt overgang fra raid 5 til raid 6.

Endret av SuperRipper
Lenke til kommentar
  • 1 måned senere...

Litt off topic, men likevell:

 

https://www.facebook...43963015636261/

 

 

 

Vi som krever at alle som har opplevd RAID-krasj skal ha rett på senskadeerstattning på lik linje med krigsveteraner.

 

Dette innebærer også sykepenger/delt uføretrygd fra dag 1 og rett til permisjon for å sørge over sine døde disker og kunne ta vare på pårørende raidkontrollere.

 

Rehabilitering/array-rebuild stønad må regnes ut etter ant. TB tapt data * ant. disker i array. HOT-spare disker på blåresept og fradrag på skatten for BBU innen 2013!!!!

Lenke til kommentar
  • 7 måneder senere...

Da er snart ny filserver på tur i posten.

ARC-1882IX-24 m/BBU

15x Seagate ST3000DM001 (skal vistnok være gode for desktop raid / home servers / nas).

2x Intel 320 i raid 1 som OS-disk.

 

Jeg er usikker på hvordan jeg burde raide dette.

 

Hver drivebay har 5 diskplasser (5x3=15).

 

Har sett på Raid 6, Raid 10 og Raid-Z2/RaidZ-3.

 

Alle diskene i ett raid er vel ikke anbefalt med tanke på rebuild time og mulighet for oppgradering senere.

 

Såvidt meg bekjent (etter å ha googlet mye), er det ikke anbefalt å overstige 7 disker pr. raid 6, spesielt ikke med så store disker.

 

Ser følgende scenarioer:

 

3x Raid6 volumes. = 8,2TB Netto pr. volume. = 24,6TB Netto totalt.

1x Raid6 volume = 35,5TB Netto.

 

3x Raid-Z2 volumes (3 vdevs i zpoolen) = 8,2TB Netto pr. volume = 24,6TB Netto totalt.

1x Raid-Z3 volume (1vdev). = 32,7TB Netto.

 

Ved bruk av Raid-Z vil man jo ikke få ytelsen fra arecaen (vdevs må kjøre i passthrough). Alle diskene i èn vdev vil visstnok også gi dårlig ytelse.

 

Derfor heller jeg mest mot Raid 6, men er litt usikker på om jeg skal kjøre 3 volumes, eller ett stort volume. Det siste gjør det i alle fall nermest økonomisk umulig å oppgradere til f.eks. 5TB disker om et par år. Kjører jeg 3 volumes, kan jeg ta det etappevis.

 

Den største fordelen jeg ser (bortsett fra at Raid-Z2 vistnok er noe sikrere enn Raid 6) er muligheten for en zpool, slik at man ser bare ètt lagringsområde, selv om man har flere volumes.

 

Finnes det alternativer for zpools i windows (server 2012/storage server) som takler at man bruker raid (med storage spaces er dette vistnok ikke anbefalt)?

Endret av JKJK
Lenke til kommentar

Du kan exportere diskane som single raid devices til OSet med Areca kortet ditt. Då vil du kunne dra nytte av ytelsen til Arecaen

 

Eit raidz2 med 15 disker går fint, har du eit fullt raid så vil ein scrub/resilver ta nokre få dagar. Bare ikkje aktiver dedup, då tar ein scrub/resilver minst 10-20x lengre tid.

 

Ein anna måte og auke ytelsen drastisk på er å aktivere LZ4 compression som snart kjem i Illumos og FreeBSD https://www.illumos.org/issues/3035

 

Eg stusser meir på at du skal bruke 2 SSDer som OS disk, bruke dei heller som cache og ZIL log til ZFS. Til OS disker så er to usb3 minnepenner meir enn godt nok.

Lenke til kommentar
  • 4 år senere...

Kom over denne tråden nok en gang.
Er det noen som har den fjerneste anelse om hvor dyrt det er å bytte ut 15x enterprise satadisker i en smell? (Ja, jeg endte opp med alle diskene i et raid 6). Har bytta fra fucked seagate ST3000DM001 en gang til WD RE4. Fikk en god pris pga. ST3000DM001 da var kjent for å være fucked, men likevel. Nå vurderer jeg å bytte ut 4TB RE4 med 8TB+ ... RE4 virker plutselig veldig uaktuelt. Noen som har efaring med WD Red Pro ?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...