Gå til innhold

DNB måtte starte tusenvis av servere på nytt


Anbefalte innlegg

Videoannonse
Annonse

 

Nei, dette er ikke noe vi må bli vant til. Det burde eksistere reserverløsninger. Ingen andre Norske banker har like store driftsproblemer som DNB.

 

 

Nå er reserveløsninger i utgangspunktet til for å dekke katastrofale utfall på primærlokasjon. Type strømbrudd, naturkatastrofer etc. I de tilfellene så må man uansett påregne en hel del nedetid. En reserveløsning er ikke ment å dekke over kløning, inkompetanse og feildimensjonering/design.

Lenke til kommentar
Gjest Slettet-376f9

Den indiske IT-arbeideren som forårsaket problemet har nok allerede fått sparken. Så da er vel problemet løst?

Ikke hvis jobben blir overtatt av en enda større kløne.

Lenke til kommentar

Den indiske IT-arbeideren som forårsaket problemet har nok allerede fått sparken. Så da er vel problemet løst?

 

Egentlig ikke...

Den sparkete indiske ansatte *kan* faktiskt være den som har mest kompetanse! :)

 

Det er en svært dårlig måte å løse interne problemer i bedriften, fremfor oppmuntring, opplæring og oppfølging slik at folk ikke gjør samme feil igjen.

 

Det skaper ikke et godt arbeidsmiljø, for hvis en blir utrygg på

jobben blir en svært dårlig til fikse/løse ting.

Det er bedre å være dum og overlate problemet til alle andre, spesielt til firmaer som selger tjenestene.

 

Når det gjelder fag som krever høykompetanse, fungerer ikke den "arkaiske" lederstrukturen så godt.

(det forutsetter at ledelskapen har mer kompetanse enn de ansatte, slik at avgjørelsene og styrelsen blir mest hensiktmessig for firmaet.)

  • Liker 2
Lenke til kommentar

Den virkelig store strategiske genistreken av DNB her er jo å sørge for at det er lag på lag med underleverandører som skal koordineres. Hvorfor gjøre noe så enkelt som å bygge infrastruktur til en sikker og enkel øvelse lokalt, når en kan få folk med forskjellige incentiver, tidssoner, språk og kultur til å gjøre det til en umulig balanseøvelse med 3 mellomledere i hvert kommunikasjons ledd?

  • Liker 2
Lenke til kommentar

Utviklerne som har klart å skape systemer som ikke klarer å stable seg på bena på egen hånd uten å startes i en spesifikk rekkefølge har ikke gjort jobben sin. At samfunnskritiske funksjoner som bank og finans ikke klarer å skape skikkelige løsninger er en skandale. En god del av det bankenes eiere og ledere putter i egne lommer burde brukes på å få skikk på systemene.

Lenke til kommentar

 

Har ikke snøring, men tenker at begrepet hyper care har noe med virtualisering å gjøre. Begrepet Hypervisor kommer jo f.eks. fra virtualisering. Normalt sett så er jo virtualisering et gode da.

 

Hypercare er når en leverandør eller operatør har ekstra høy attention på et system eller en løsning og utfører overvåkning, service og vedlikehold raskt (ofte umiddelbart) for å unngå feil og problemer.

 

"Attention"? Greit nok at vi har mange låneord i IT, men mange av begrepene har gode norske varianter.

Lenke til kommentar

 

 

Har ikke snøring, men tenker at begrepet hyper care har noe med virtualisering å gjøre. Begrepet Hypervisor kommer jo f.eks. fra virtualisering. Normalt sett så er jo virtualisering et gode da.

 

Hypercare er når en leverandør eller operatør har ekstra høy attention på et system eller en løsning og utfører overvåkning, service og vedlikehold raskt (ofte umiddelbart) for å unngå feil og problemer.

"Attention"? Greit nok at vi har mange låneord i IT, men mange av begrepene har gode norske varianter.

Beklager, gammel yrkesskade. Skal bruke "oppmerksomhet" neste gang :)

Lenke til kommentar

"Feilen som oppstod den 15. juni skal ha påvirket den komponenten som skal sikre høy tilgjengelighet hos DNB."

 

Høres smart ut å ha EN komponent som skal sikre tilgjengelighet. Vanligvis sikres tilgjengelighet ved å ha *flere* uavhengige komponenter. Og selvsagt å unngå samtidig oppgradering eller konfigurasjonsendring på disse.

Lenke til kommentar

"Feilen som oppstod den 15. juni skal ha påvirket den komponenten som skal sikre høy tilgjengelighet hos DNB."

 

Høres smart ut å ha EN komponent som skal sikre tilgjengelighet. Vanligvis sikres tilgjengelighet ved å ha *flere* uavhengige komponenter. Og selvsagt å unngå samtidig oppgradering eller konfigurasjonsendring på disse.

 

Det må være en styring av data. Hvis dats lagres litt her og litt der får man korrupt system. Raid-cobtrollere er eksempel som skal sikre mot diskkrasj og som regel varer de lenger enn diskene. Men av og til feiler de. Umulig å gardere seg helt. Samme med failover-løsninger: de nå detektere om noe er feil. Men hva om sjekken for om det er feil feiler og slår seg av og på hele tiden og overbelaster alt?

Lenke til kommentar

 

 

Det må være en styring av data. Hvis dats lagres litt her og litt der får man korrupt system. Raid-cobtrollere er eksempel som skal sikre mot diskkrasj og som regel varer de lenger enn diskene. Men av og til feiler de. Umulig å gardere seg helt. Samme med failover-løsninger: de nå detektere om noe er feil. Men hva om sjekken for om det er feil feiler og slår seg av og på hele tiden og overbelaster alt?

 

 

Men bør ikke den styringen skje i programvare og kjøre på en virtuell server som ikke lar seg ta ned uten at hele serverparkene går ned samtidig?

 

Kan være lurt å være kunde i mer enn en serverpark kanskje, dersom katastrofen kommer.

Endret av G
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...