Gå til innhold

Filsystem med Dedup?


arnizzz

Anbefalte innlegg

Videoannonse
Annonse
Skrevet

Dedup i ZFS er vel fortsatt på beta-stadiet, men trolig den løsningen jeg ville gått for ved noe hjemmelaget selv.

Rett og slett fordi bitråte er så ekstremt mye mer skadelig enn vanlig, når data ligger lagret deduplisert.

Skrevet

Ja, om ZFS forblir i FUSE på linux, er det ganske håpløst. Så får vi bare krysse fingrene og håpe på at forrige ukes nyhet om at det jobbes med kernel-modul stemmer.

 

Dedup kan veldig grovt ses på som filsystem-wide komprimering, slik at unike blokker bare lagres en gang, og nye instanser erstattes av pekere. Hele hemmeligheten ligger i algoritmen som deler opp filene i chunks og tillegger de flere hash-verdier, gjerne med variabel chunk størrelse.

 

Det er på vei til å bli veldig populært i business-backup, da det sparer vanvittig med plass, da f.eks full backup av noen hundre servere gjerne har mye til felles.

 

Ulempen er relativt treg hastighet ved restore, da det nødvendigvis blir en veldig random read last.

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...