Gå til innhold

Hitachi øker til 4 TB


Anbefalte innlegg

Videoannonse
Annonse

Hitachi har noen av de beste diskene jeg har vært borti i alle fall (desktop!).

 

Har flere av 3TB modellen deres i NAS enheten min, og om det blir flere 3TB eller om det blir 4TB (eller enda mer) neste gang jeg trenger å fylle på med disk vet jeg ikke. Men at det blir Hitachi er jeg ganske sikker på.

 

Kunne gjerne sett at det kommer en 64MB cache modell med 7200rpm også. Coolspin eller andre former for "grønne" utgaver appellerer ikke til meg.

Lenke til kommentar

HAST + ZFS er fint det, men fjerner jo på ingen måte behovet for rebuild.

Raidet som ligger på laget over HAST ser ikkje at den eine noden har mista ein disk, ergo du trenger ikkje rebuild.

Nei sånn sett trenger jo ingen rebuild i det en disk krasjer... det er først når flere krasjer at det ville ha vært greit å ha bygd opp de som krasja tidligere. Så langt jeg vet kan ikke HAST speile over tilsvarende disk i f.eks et RAIDZ og selv om den kunne det så ville jo belastningen på motstående disk blitt signifikant.

Lenke til kommentar

HAST + ZFS er fint det, men fjerner jo på ingen måte behovet for rebuild.

Raidet som ligger på laget over HAST ser ikkje at den eine noden har mista ein disk, ergo du trenger ikkje rebuild.

Nei sånn sett trenger jo ingen rebuild i det en disk krasjer... det er først når flere krasjer at det ville ha vært greit å ha bygd opp de som krasja tidligere. Så langt jeg vet kan ikke HAST speile over tilsvarende disk i f.eks et RAIDZ og selv om den kunne det så ville jo belastningen på motstående disk blitt signifikant.

 

Nei, HAST er ingen loadbalancer, det er master slave i full sync. Ergo ryker ein disk så køyrer raidet fint, og like kjapt som før då HAST bare bytter hovudnode. Når du bytter disk så synkroniserer du bare den eine disken. Synkroniseringshastigheita kan du justere sjølv. Drar du bare ned ein HAST node for vedlikehald så vil HAST bare synkronisere dei datablokkene som har blitt endra sidan sist. Kræsjer fleire disker samtidig så har du eit stort problem som er mykje viktigare å få ordna opp i :)

Lenke til kommentar

HAST + ZFS er fint det, men fjerner jo på ingen måte behovet for rebuild.

Raidet som ligger på laget over HAST ser ikkje at den eine noden har mista ein disk, ergo du trenger ikkje rebuild.

Nei sånn sett trenger jo ingen rebuild i det en disk krasjer... det er først når flere krasjer at det ville ha vært greit å ha bygd opp de som krasja tidligere. Så langt jeg vet kan ikke HAST speile over tilsvarende disk i f.eks et RAIDZ og selv om den kunne det så ville jo belastningen på motstående disk blitt signifikant.

 

Nei, HAST er ingen loadbalancer, det er master slave i full sync. Ergo ryker ein disk så køyrer raidet fint, og like kjapt som før då HAST bare bytter hovudnode. Når du bytter disk så synkroniserer du bare den eine disken. Synkroniseringshastigheita kan du justere sjølv. Drar du bare ned ein HAST node for vedlikehald så vil HAST bare synkronisere dei datablokkene som har blitt endra sidan sist. Kræsjer fleire disker samtidig så har du eit stort problem som er mykje viktigare å få ordna opp i :)

 

Jeg ser ikke helt argumentet ditt her? Problemet det snakke som er jo nettopp det at om du mister redundans, så tar det tid å bygge opp redundansen igjen, og innen den tid kan en ny disk ha tatt kvelden, hvordan kommer du rundt dette med ZFS og HAST? Selvfølgelig kan man la redundansen seile sin egen sjø, men er man opptatt av datasikkerhet, så må man jo rebuilde da også.

 

AtW

Lenke til kommentar

FØler denne "hvilket merke er best"-diskusjonen er litt feil, det har vel aldri vært slik at det er MERKE det går på, det er heller MODELLER man bør holde seg unna. F.eks. var Seagate sin 7200.10-serie MEGET solid, blant det ypperste man kunne ha i maskinen - hvertfall ift driftssikkerhet. 7200.11 var trash, derimot. Summa summarum er det like greit å kjøpe det som er billigst dersom ikke internettet sier at det valget er en dårlig disk. Ellers er jo prisen på denne interessant, 3tb kommer til å nærme seg der de var før flommen (1000 kroner), og da sier det seg selv at ikke 4tb er verdt 3000. Det er "bare" snakk om 33% ekstra plass. Tipper prisen vil bli ca 2000 kroner for denne, dersom mine antagelser om 3tb-prisene holder stikk. Men... vil ha 5tb :p

Lenke til kommentar

HAST + ZFS er fint det, men fjerner jo på ingen måte behovet for rebuild.

Raidet som ligger på laget over HAST ser ikkje at den eine noden har mista ein disk, ergo du trenger ikkje rebuild.

Nei sånn sett trenger jo ingen rebuild i det en disk krasjer... det er først når flere krasjer at det ville ha vært greit å ha bygd opp de som krasja tidligere. Så langt jeg vet kan ikke HAST speile over tilsvarende disk i f.eks et RAIDZ og selv om den kunne det så ville jo belastningen på motstående disk blitt signifikant.

 

Nei, HAST er ingen loadbalancer, det er master slave i full sync. Ergo ryker ein disk så køyrer raidet fint, og like kjapt som før då HAST bare bytter hovudnode. Når du bytter disk så synkroniserer du bare den eine disken. Synkroniseringshastigheita kan du justere sjølv. Drar du bare ned ein HAST node for vedlikehald så vil HAST bare synkronisere dei datablokkene som har blitt endra sidan sist. Kræsjer fleire disker samtidig så har du eit stort problem som er mykje viktigare å få ordna opp i :)

 

Jeg ser ikke helt argumentet ditt her? Problemet det snakke som er jo nettopp det at om du mister redundans, så tar det tid å bygge opp redundansen igjen, og innen den tid kan en ny disk ha tatt kvelden, hvordan kommer du rundt dette med ZFS og HAST? Selvfølgelig kan man la redundansen seile sin egen sjø, men er man opptatt av datasikkerhet, så må man jo rebuilde da også.

 

AtW

 

Du har to lag med redundans, nettopp for å sleppe STORE rebuilds.

Lenke til kommentar
Det som er litt urovekkende med utviklingen av harddisker for bruk i proffe miljøer er de lange raid rebuild og backup restore tidene en får, siden mengden data per spindel øker raskere enn ytelsen. Har egentlig ikke sett noen god løsing på det.
Løsningen kommer nok sent, men godt, i form av SSD...

Påliteligheten til SSD er på vei ned sammen med krymping av teknikken og kostnadene per GB. Jo mer pålitelighet jo mer koster det. Per i dag får man mye mer kapasitet med god redundans på harddisker enn på SSD. F.eks kan du kjøre 4x Raid1 (speiling) for langt lavere pris enn 2x Raid1 SSD eller en god SLC SSD. Med 4x Raid1 på HDD er man godt sikret med redundans også i rebuild-tida. En annen ting er at det føles feil å "sløse" sånn med plassen.

Lenke til kommentar

HAST + ZFS er fint det, men fjerner jo på ingen måte behovet for rebuild.

Raidet som ligger på laget over HAST ser ikkje at den eine noden har mista ein disk, ergo du trenger ikkje rebuild.

Nei sånn sett trenger jo ingen rebuild i det en disk krasjer... det er først når flere krasjer at det ville ha vært greit å ha bygd opp de som krasja tidligere. Så langt jeg vet kan ikke HAST speile over tilsvarende disk i f.eks et RAIDZ og selv om den kunne det så ville jo belastningen på motstående disk blitt signifikant.

 

Nei, HAST er ingen loadbalancer, det er master slave i full sync. Ergo ryker ein disk så køyrer raidet fint, og like kjapt som før då HAST bare bytter hovudnode. Når du bytter disk så synkroniserer du bare den eine disken. Synkroniseringshastigheita kan du justere sjølv. Drar du bare ned ein HAST node for vedlikehald så vil HAST bare synkronisere dei datablokkene som har blitt endra sidan sist. Kræsjer fleire disker samtidig så har du eit stort problem som er mykje viktigare å få ordna opp i :)

Jeg er forsåvidt ikke veldig uenig i hva du sier, men poenget er at man må kjøre like mye rebuild uansett hvor mye du bruker clustering teknologier som HAST på toppen. HAST er egentlig ikke relevant for diskusjonen. Det er laget under som er utfordringen og før eller siden vil du ha de utfordringene på både master og slave sammtidig. Det er bare litt lavere sannsynlighet.

Lenke til kommentar
Det største problemet jeg ser er Hitachi sitt frynsete rykte på HDDer.
Logikken er vel: "Jeg ville ikke reist med MS Queen Elizabeth (2010) fordi rederiet (Cunard Line, tidligere White Star Line) eide Titanic (1911) en gang i tida og det tålte ikke å treffe isfjell".Jeg regner med det er de antikvariske seriene GXP75 og GXP60 du sikter til? De har særdeles lite å gjøre med dagens disker (som har hatt et utall serier i mellom den gangen og nå som har fungert veldig bra)

 

Ja du har vel litt rett her. Nå var det ikke meg personlig som hadde problemer, men min bror som drev et datafirma der han solgte PCer han bygget. Og da blir dette er stort problem.

 

Kan hende jeg bør skaffe en.. Serveren er ganske full så å installere Greyhole og legge til 4T ville jo hjelpe.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...