Gå til innhold

77 terabyte forskningsdata er tapt for alltid


Gjest Marius B. Jørgenrud

Anbefalte innlegg

Videoannonse
Annonse
Sitat

Universitetet i Kyoto i Japan har tapt om lag 77 terabyte med forskningsdata, etter at en sikkerhetskopi ble ødelagt en uke før jul.

Et ryddescript, som egentlig skulle fjerne gamle loggfiler, kom da i skade for å slette deler av backupen til universitetets Cray/HPE-baserte superdatamaskin.

Hva var egentlig problemet? De kan jo bare kopiere de originale filene til en ny/annen backup og så burde det jo være i orden?

Spoiler

(spiller litt dum for å se hvilke svar som kommer)

 

  • Liker 4
Lenke til kommentar

Dette kan dessverre skje overalt. Når folk med høye nok rettigheter gjør tabber, er det ikke grenser for hvor galt det kan gå.

Jeg ser med gru fram til en tilsvarende feil hos Apple, Azure eller Amazon!

Å tro at man har backup offsite på et annet fysisk medium er vel optimistisk. Det går rett og slett ikke. Det er alt for mye data.

Lenke til kommentar
OPV skrev (11 timer siden):

Se på skissen på https://www.bleepingcomputer.com/news/security/university-loses-77tb-of-research-data-due-to-backup-error/ så forklarer den sannsynligvis hvorfor det ikke kunne reddes. All lagring for tre Cray-systemer administreres av et felles datalager.

Det ser ut som de slettet arkivet og at slettingen ble automatisk synkronisert med "backupen". Det er jo en fantastisk utrygg måte å ta "backup" på, som er heller tvilsomt om det kan kalles backup. Det er vel heller en form for forsinket speiling i Raid1, som ikke er en form for backup.

Backup er en sikkerhetskopi som kan rulles tilbake dersom det skjer noe med originalen. Alternativt kan man sikkerhetskopiere filene på nytt dersom det skulle skje noe med sikkerhetskopien. Det universitetet i Tokyo har gjort her er å ikke ha noen sikkerhetskopi, sånn jeg forstår det. Sletter man data så forsvinner de fra begge stedene de er lagret.

  • Liker 2
Lenke til kommentar
lars4012 skrev (54 minutter siden):

77 TB er ikke all verdens med data. Det selges 16 TB disker for rett over 5000 kr. 5 slike ville vært tilstrekkelig.

Skal man fylle kravene til reell backup, så spørs det om det er store forskjeller på å ha dette på harddisker vs raidløsninger med SSD-lagring og tape. Forskjellen er selvsagt at ved bruk av tape og HD'er, kan lagre disse fysisk frakoblet, og dermed bør det være mindre sjanse for å slette dette samtidig som man tar lagringen på serverne in-house og i skyen/eksternt datalager.

Nå har det selvsagt litt å si hvor mye av dataene man rekker å kopiere på slike medium, uten at tid blir en faktor. Det er vel derfor man hovedsaklig går over til SSD-lagring på ting man trenger å skrive med en viss frekvens. På den annen side, mellomlagrer man på en SSD-basert løsning, så betyr det mindre om skriving til tradisjonelle harddisker tar en dag eller to, om de bare gjør dette hver måned, og gjør det fra SSD-kopien, og dermed ikke påvirker ytelsen i driftsmiljøet.

NB! For raskere fart, er det en fordel å fordele skrivingen på flere disker i en raidløsning, da en singel 4 TB disk i seg selv kan ta fort 12 timer å klone. Så regn med at man heller baserer dette på SSD-raids, så lenge dataene ikke skal lagres over lang tid (1 år +).

https://forums.tomshardware.com/threads/how-long-does-it-take-to-copy-4tb.2228391/

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...