Gå til innhold

Seagate slår til med en forbrukerharddisk på 10 TB


Anbefalte innlegg

Videoannonse
Annonse

Kjempekos når denne blir fylt til randen og kræsjer på et ubestemt tidspunkt. Har hatt Seagates 3TB HDD i filler og lært leksa den harde veien. RAID 1 og 5 på lagringsdisker her i heimen siden. Blir dyr fornøyelse med 10TB i et slikt oppsett, og får vondt i magen bare på tanken av hvor lang tid det ville tatt å rekonstruere et array av slike :

 

*host* jottacloud *hark*

Lenke til kommentar

 

Alltid "morsomt" med folk som tror deres personlige anekdoter er allmenngyldige.

 

Jeg begynte å kjøre RAID en gang i andre halvdel av 90-tallet og hatt dårlige opplevelser med Seagate, WD, Toshiba, Fujitsu, Maxtor og Quantum.  Ser man bort fra RAID-bruk har jeg også hatt dårlige opplevelser med Conner, Micropolis og trolig et par-tre til som jeg forlengst har glemt.  Om jeg skulle anbefale disker på samme syltynne grunnlag folk vanligvis på fora så kunne jeg kun nevne Samsung, som er den eneste av dagens produsenter jeg aldri har hatt problemer med (gitt at HGST er en del av WD).

 

I dag har jeg forlengst gitt opp RAID og alle snurrediskene mine har vært fra Seagate siste fire-fem år - uten at jeg har hatt problemer av noe slag.  Det samme, eller det motsatte, kunne vært tilfelle uansett hvilke disker jeg hadde valgt.

 

Når det gjelder RAID så ga jeg opp det når jeg måtte over 2TB diskstørrelse.  Å vente i dagevis på et rebuild frister lite og når hver døde disk øker risikoen for en ny død disk eksponentielt så gir det heller ingen mening i et sikkerhetsperspektiv for en vanlig bruker.

 

Om du synes personlig anekdoter er så verdiløse kan du jo se på statistikken fra store aktører, som feks backblaze, seagate kommer mildt sagt uheldig ut. Kanskje har de blitt bedre, kanskje ikke, vi får se.

 

Øker risikoen for en ny død disk eksponentielt? Hva legger du egentlig i det?

 

AtW

 

 

Personlige anekdoter (selvsagt inkludert mine egne) er uvegerlig verdiløse, da de har null statistisk signifikans.

 

Tallene fra Backblaze er en anelse mer interessante, men gitt at diskene opererer i omgivelser som skiller seg dramatisk fra det som er normen hos en vanlig bruker (massive datasentere med høy temperatur, konstant vibrasjon, etc, etc) og at Backblaze har som strategi å til enhver tid kjøpe de billigste diskene som er å finne, deriblant en stor andel grey market imports med uvisst opphav, så er relevansen for en vanlig hjemmebruker ganske så mager.  Gjør et kjapt google-søk så finner du en lang rekke artikler som omhandler akkurat dette.

 

Når det gjelder den eksponentielle økningen i risiko så er det bedre å lese her, her og her enn at jeg forsøker å forklare selv.  Jeg skulle forsåvidt ikke ha sagt noe spesifikt om disker på >2TB (og jeg glemte å si jeg tenkte på RAID5 spesifikt); det er mer en situasjon som når et "kritisk punkt" ved en RAID-størrelse  ~12TB (utledet av den typiske feilraten på 10^14,som selvsagt ikke en hard limit, men kun en guide).

Endret av Belfaborac
Lenke til kommentar

 

 

Alltid "morsomt" med folk som tror deres personlige anekdoter er allmenngyldige.

 

Jeg begynte å kjøre RAID en gang i andre halvdel av 90-tallet og hatt dårlige opplevelser med Seagate, WD, Toshiba, Fujitsu, Maxtor og Quantum.  Ser man bort fra RAID-bruk har jeg også hatt dårlige opplevelser med Conner, Micropolis og trolig et par-tre til som jeg forlengst har glemt.  Om jeg skulle anbefale disker på samme syltynne grunnlag folk vanligvis på fora så kunne jeg kun nevne Samsung, som er den eneste av dagens produsenter jeg aldri har hatt problemer med (gitt at HGST er en del av WD).

 

I dag har jeg forlengst gitt opp RAID og alle snurrediskene mine har vært fra Seagate siste fire-fem år - uten at jeg har hatt problemer av noe slag.  Det samme, eller det motsatte, kunne vært tilfelle uansett hvilke disker jeg hadde valgt.

 

Når det gjelder RAID så ga jeg opp det når jeg måtte over 2TB diskstørrelse.  Å vente i dagevis på et rebuild frister lite og når hver døde disk øker risikoen for en ny død disk eksponentielt så gir det heller ingen mening i et sikkerhetsperspektiv for en vanlig bruker.

 

Om du synes personlig anekdoter er så verdiløse kan du jo se på statistikken fra store aktører, som feks backblaze, seagate kommer mildt sagt uheldig ut. Kanskje har de blitt bedre, kanskje ikke, vi får se.

 

Øker risikoen for en ny død disk eksponentielt? Hva legger du egentlig i det?

 

AtW

 

 

Personlige anekdoter (selvsagt inkludert mine egne) er uvegerlig verdiløse, da de har null statistisk signifikans.

 

Tallene fra Backblaze er en anelse mer interessante, men gitt at diskene opererer i omgivelser som skiller seg dramatisk fra det som er normen hos en vanlig bruker (massive datasentere med høy temperatur, konstant vibrasjon, etc, etc) og at Backblaze har som strategi å til enhver tid kjøpe de billigste diskene som er å finne, deriblant en stor andel grey market imports med uvisst opphav, så er relevansen for en vanlig hjemmebruker ganske så mager.  Gjør et kjapt google-søk så finner du en lang rekke artikler som omhandler akkurat dette.

 

Når det gjelder den eksponentielle økningen i risiko så er det bedre å lese her, her og her enn at jeg forsøker å forklare selv.  Jeg skulle forsåvidt ikke ha sagt noe spesifikt om disker på >2TB (og jeg glemte å si jeg tenkte på RAID5 spesifikt); det er mer en situasjon som når et "kritisk punkt" ved en RAID-størrelse  ~12TB (utledet av den typiske feilraten på 10^14,som selvsagt ikke en hard limit, men kun en guide).

 

 

Backblaze sine tall er faktisk høyt interessante, og mye av kritikken er heller hva jeg vil kalle mager, om vitner om manglende forståelse eller overdrivelser. Tallene er ikke perfekte såklart, men jeg inviterer deg til å finne bedre tall.

 

Ingen av de handler om eksponensiell økt risiko for en ny død disk. Tvert imot snakker de ikke om døde disker i det hele tatt, men om URE, som de baserer på helt teoretiske tall som antakelig ikke stemmer, og antakelsen om at 1 bitfeil er det samme som å miste all data.

 

AtW

Lenke til kommentar

Jeg har nå i ca to år kjørt en rekke Seagate Archive 8 TB disker på mitt system. Bruker dem til å f.eks lagre filmsamlingen min, som det ikke skrives noe til, men leses av en gang i blant.

Jeg har aldri kjørt RAID og kommer nok ikke til å gjøre det heller. Ryktene skal ha det til at Seagate har blitt mye bedre med 4TB disker og oppover, men likevel opplevde jeg nokså tidlig, på ver.1 av 8TB disken (den selges i ver.2 nå) at en disk røk.

Tok noen dager å legge tilbake alle filmene igjen, heldigvis hadde jeg de gamle diskene i hus enda.

 

Men utover det har jeg ikke opplevd noen problemer med Seagate 8 TB disker, og når/om prisen blir riktig, kommer nok 10TB disker til å finne veien inn i systemet mitt også :D

  • Liker 1
Lenke til kommentar

 

Så du synes rebuild tid på 2 veker er ok? :p

Rebuildtid bør være på under 1 dag. Over det er å be om trøbbel.

 

Det tar ikke to uker å rebuilde et slikt raid. Det tar under en dag på mitt oppsett.

 

AtW

 

 

I teorien, du skal vell også bruke raidet samtidig som det rebuildes?

 

La oss ta et enkelt regnestykke. Om du greier å skrive 100MB/s i snitt, så greier du å skrive 360GB timen. 10000/360 er ca 28 timer. Det er best case om raidet idler.

I praksis, så har du random IO som brukes til andre ting, noen ganger kan det vere mye, det spørs hva du bruker raidet til.

Når jeg sjekker raidet mitt, som for det meste idler, så tok det 4 timer og 21 minutt å rebuilde 685GB(2TB disk) eller ca 22MB/s. Diskene greier fint 80-140MB/s ved vanlig sekvensiell skriving. Men all data skal også scannes for å rekonstruere det. Dette er typisk rebuild speed!

 

Hadde det vært 6,8TB, så hadde det tatt 40-45 timer. Eller 68TB så snakker vi om 400 timer.

 

Nå er det forskjell på hardware og ZFS rebuild, då hastigheten er mer lineær med hardware raid. Men samtidig så må du rebuilde "hele" disken også har du ikke f.eks self-healing fordelen til ZFS. Rebuildhastigheten er det ellers minimal forskjell på.

Lenke til kommentar

Når det kommer til RAID så blir det kjørt hovedsaklig ZFS her.

Noen måneder siden jeg prøvde 3 stykk 8TB av westerndigital red

 

Planen på sikt er nok å ha 1 likedan hdd (størrelse) som de enkelte pools er i størrelse.

Har Jottacloud, men spørs jo om en vil overskride 10TB med glans og betale for overforbruk.

 

Men størstedelen er jo filmsamlingen og den kan rippes på nytt, dog det tar sin tid.

DVDfab og Nvidia og sine cudakjerner gjør jo jobben betraktelig raskere når en snakker om HEVC ihvertfall.

 

Angående Seagate 3TB var det jo trøbbel med western digital sine 3TB i sin tid.

Lenke til kommentar

 

 

Så du synes rebuild tid på 2 veker er ok? :p

Rebuildtid bør være på under 1 dag. Over det er å be om trøbbel.

 

Det tar ikke to uker å rebuilde et slikt raid. Det tar under en dag på mitt oppsett.

 

AtW

 

 

I teorien, du skal vell også bruke raidet samtidig som det rebuildes?

 

La oss ta et enkelt regnestykke. Om du greier å skrive 100MB/s i snitt, så greier du å skrive 360GB timen. 10000/360 er ca 28 timer. Det er best case om raidet idler.

I praksis, så har du random IO som brukes til andre ting, noen ganger kan det vere mye, det spørs hva du bruker raidet til.

Når jeg sjekker raidet mitt, som for det meste idler, så tok det 4 timer og 21 minutt å rebuilde 685GB(2TB disk) eller ca 22MB/s. Diskene greier fint 80-140MB/s ved vanlig sekvensiell skriving. Men all data skal også scannes for å rekonstruere det. Dette er typisk rebuild speed!

 

Hadde det vært 6,8TB, så hadde det tatt 40-45 timer. Eller 68TB så snakker vi om 400 timer.

 

Nå er det forskjell på hardware og ZFS rebuild, då hastigheten er mer lineær med hardware raid. Men samtidig så må du rebuilde "hele" disken også har du ikke f.eks self-healing fordelen til ZFS. Rebuildhastigheten er det ellers minimal forskjell på.

 

 

Nå har det jo vist seg at ditt raid ikke er spesielt raskt, les tidligere diskusjoner. Spesielt ikke på skriving.

 

Nå har jeg riktignok ikke prøvd 10 TB konkret, men jeg har rebuildet større drev i et raid5-setup, og teori og praksis er svært nærme hverandre. Hvorfor jeg skulle hamre raidet med random io under noe så kritisk om en rebuild får andre svare på.

 

AtW

  • Liker 2
Lenke til kommentar

 

Men størstedelen er jo filmsamlingen og den kan rippes på nytt, dog det tar sin tid.

DVDfab og Nvidia og sine cudakjerner gjør jo jobben betraktelig raskere når en snakker om HEVC ihvertfall.

 

 

Du får gjøre som jeg har gjort de siste 13 årene jeg har digitalisert filmsamlingen min. Hver gang jeg bytter til en større disktype, beholder jeg de gamle diskene og sender dem ut av huset. Etter et par kræsj har jeg lært å merke de gamle diskene bedre, men det har jo også blitt lettere jo større diskene har blitt. Nå er backupen på 1.5 TB disker og 3 TB disker, mens jeg har 8 TB disker i pcen.

Lenke til kommentar

Et tips.. Ikke kjøp Seagate...

 

Har hatt 7 Seagate Harddisker. Ingen av de varte lenger en 5 eller 6 år...

Ett tips er å ikkje høre på enkeltpersoner ;)

 

Selv har jeg 16 stk Seagate desktop 4TB som også har ganske lite feil i følge Backblaze :)

 

Hitachi har jeg også 16 stk av 3TB modellen. Denne modellen kommer vel best ut av samtlige harddisker på Backblaze :)

Lenke til kommentar

 

 

 

Så du synes rebuild tid på 2 veker er ok? :p

Rebuildtid bør være på under 1 dag. Over det er å be om trøbbel.

 

Det tar ikke to uker å rebuilde et slikt raid. Det tar under en dag på mitt oppsett.

 

AtW

 

 

I teorien, du skal vell også bruke raidet samtidig som det rebuildes?

 

La oss ta et enkelt regnestykke. Om du greier å skrive 100MB/s i snitt, så greier du å skrive 360GB timen. 10000/360 er ca 28 timer. Det er best case om raidet idler.

I praksis, så har du random IO som brukes til andre ting, noen ganger kan det vere mye, det spørs hva du bruker raidet til.

Når jeg sjekker raidet mitt, som for det meste idler, så tok det 4 timer og 21 minutt å rebuilde 685GB(2TB disk) eller ca 22MB/s. Diskene greier fint 80-140MB/s ved vanlig sekvensiell skriving. Men all data skal også scannes for å rekonstruere det. Dette er typisk rebuild speed!

 

Hadde det vært 6,8TB, så hadde det tatt 40-45 timer. Eller 68TB så snakker vi om 400 timer.

 

Nå er det forskjell på hardware og ZFS rebuild, då hastigheten er mer lineær med hardware raid. Men samtidig så må du rebuilde "hele" disken også har du ikke f.eks self-healing fordelen til ZFS. Rebuildhastigheten er det ellers minimal forskjell på.

 

 

Nå har det jo vist seg at ditt raid ikke er spesielt raskt, les tidligere diskusjoner. Spesielt ikke på skriving.

 

Nå har jeg riktignok ikke prøvd 10 TB konkret, men jeg har rebuildet større drev i et raid5-setup, og teori og praksis er svært nærme hverandre. Hvorfor jeg skulle hamre raidet med random io under noe så kritisk om en rebuild får andre svare på.

 

AtW

 

 

Mitt raid er faktisk ganske raskt og skikkelig satt opp. Jeg kan ikke se noe forskjell på mitt eller andre sin rebuild hastighet som jeg finner på internett.

Lenke til kommentar

Noe må det jo være, når du har påstått man aldri kan få write over hastigheten til en disk. Men det er forsåvidt riktig på akkurat rebuild at du ikke får det. Det er bare det at denne disken ligger på rundt 200 MB/s, dvs ca 14 timer. Pluss litt fordi man ikke får den hastigheten over hele disken osv.

 

AtW

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...