Gå til innhold

Unix-server vinner oppetidsundersøkelse


Anbefalte innlegg

Videoannonse
Annonse

Litt skummel undersøkelse det der. Det er så ekstremt mye den ikke sier noe om, som i tillegg er svært relevant. F.eks planlagt nedetid og krav til systemene. Det er ikke alltid at planlagt nedetid er OK. Det er som regel et nødvendig onde. Videre hvis en administrator får beskjed om at systemet aldri skal rebootes så blir det ikke patching før det smeller... på den andre siden hvis det er lov å reboote på en fast tid hver uke så blir det fort mye nedetid over et år, men nedetid når det virkelig gjelder kan fort bli mye mindre.

 

Og hvor ble det av OpenBSD? Den bør jo komme ekstremt bra ut på en slik test! Nesten ingen nye features og lite patching.. nærmere AIX kommer du vel ikke med fri programvare sett fra den vinkelen. Nye features = bugs = patching = nedetid. Så enkelt kan det nesten sies å være når det kommer til OS.

 

Edit:

IBM's Power servers with the AIX Unix operating system suffered an average of 15 minutes of unplanned downtime per year in the most recent survey, down from 30 minutes in the 2008 survey. IBM also came in first place for average time to patch a server (11 minutes per patch) and for lowest number of outages per year.

 

Så enten har de hatt litt flaks i år eller så har de patchet lite eller så har de skutt gullfugelen... Skulle ikke forundre meg om de skvetter opp noen minutter neste gang.

 

The second most reliable servers in terms of downtime were customized versions of Novell Suse Linux running on standard x86 hardware, clocking in at 17.4 minutes of downtime per year. Uncustomized Novell Suse Linux machines had 54 minutes of downtime.

OK så den virkelige nedetiden for standard SUSE er 54 min ikke 17.4 min. Da gir det hele mye mer mening. Jeg skjønner også at nedstrippede SUSE versjoner som f.eks Symantec PDOS ikke feiler så ofte. De har jo nesten ingen tjenester aktivert og patches ca en gang hvert jubelår.

Endret av Anders Jensen
Lenke til kommentar

Over hvor lang tid er denne testen kjørt? Får jo, som artikkelen selv sier, ett ikke 100% riktig bilde av OSet med denne testen heller, siden en ikke vet at administratorene er på likt nivå. Hadde muligens vært en mer "riktig" test hvis de hadde satt opp masse servere selv som de visste de hadde veldig kompetente folk til å passe på.

 

Om nedetiden er gjennomsnittet, medianen eller total nedetid (Den siste vil hvertfall gi skjev fordeling, så håper virkelig de ikke har brukt det:P) på alle maskinene med denne arkitekturen/OSet står det heller ingenting om, noe som hadde vært veldig fint å hatt med. Det står heller ingenting om i Kilden så vidt jeg ser. Hvis det er mange flere som sitter med Debian enn f. eks. IBM og AIX, noe det trolig gjør, er det ikke rart at Debian har lenger nedetid med hverken gjennomsnitt eller total da noen få fort kunne dratt tallet veldig opp.

 

Selv virker det som det er veldig mye informasjon som mangler for å kunne si noe om de forskjellige serverne, men da det heller ikke står i kildene deres er det lite dere får gjort med det.

Lenke til kommentar

Er ikke helt sikker på at jeg stoler på denne undersøkelsen. Jeg tviler ikke på at Unix har veldig god oppetid, men man må kanskje se litt bak tallene.

F.eks er jeg ganske sikker på at bedriftene som kjører Windows Server 2003, 2008 og Debian har litt andre krav og kompetanse enn de som kjører Unix.

Her hvor jeg jobber kjører vi stort sett Windows Server 2003 og 2008, og vi trives veldig bra med det. Vi opplever ikke oppetiden som noe problem.

De gangene vi har nedetid er det i 95% av tilfellene pga maskinvareproblemer eller brukerfeil (eller adminfeil om man vil). Disse problemene hadde ikke forsvunnet om vi hadde gått over til Unix. Jeg er også relativt sikker på at servere som kjører Unix er dyrere og som regel har mange flere redundante maskinvareløsninger (flere PSUer, hot swap-muligheter på de fleste komponenter osv). Dette vil selvfølgelig føre til mye mindre nedetid.

Lenke til kommentar

Jeg skulle likt å sett hele listen (8. til 14. plass mangler).

 

Den kombinasjonen som det antagelig er mest statistisk materiale på (av de totalt 400 systemene klassifisert i 15 kombinasjoner), er nok Windows server-variantene 2003 og 2008. Til tross for at kilden* fremhever Windows-variantene for å ha størst forbedring siden i fjor så havner de fortsatt på henholdsvis 13. og 14. plass av 15. Det må vel sies å være ganske nedslående resultater, uansett om man skylder på selve OSet, administratorene, deres arbeidsgivere eller maskinene de kjøres på.

 

* Takk til AJ for den opprinnelige kilden.

Lenke til kommentar

Denne testen blir nok litt for enkel. Det er som Anders Jensen skriver alt for mange faktorer som spiller inn her. Hvilke versjoner av operativsystemene snakker vi om? Tar man for eksempel Windows Server 2003 Server vil Datacenter Edition ha en mye bedre oppetid (i de aller fleste tilfeller) enn Web, Standard og Enterprise. Mye av årsaken til dette er at det kreves at administrator er sertifisert til å administrere server.

 

Mange versjoner HP Unix har du kun lov å bruke bestemt hardware. Dette vil selvsagt øke stabiliteten på en server.

 

Så kommer man til hvor ofte patcher man og hvilke typer patcher er det som blir installert. En annen ting er som Anders nevner at hvilken funksjonalitet er det som er installert på de enkelte serverne. Har du en server som både kjører database, ftp, filserver, web server, domene kontroller, er mail server og virus og spam søker så vil selvsagt dette påvirke oppetiden. Dette var selvsagt et søkt eksempel men hvilken type og hvor mye software som er installert vil påvirke stabiliteten. Så er jo neste spørsmål om programvaren som kjører på serverne er sertifisert for å kunne kjører på serveren eller ikke. Dette vil også ha stor innvirkning på resultatet. Videre kan man se på drivere og kvaliteten på de. Blir drivere til hardware patchet eller ikke.

Nå er det også slik at noen opperativsystemer får pathcher hvert skuddår mens noen får månedlig. Dette vil selvsagt påvirke resulatet. Så kan man jo ta hvor hardt belastes de enkelte severe. En server som konstant kjører med 80 % eller mer belastning vil normalt sett har flere problemer enn en som belastes med 10 %. Ellers kan man jo nevne at de som kjører applikasjoner med memoryleaks vil normalt få andre resultaer enn de som kjører med applikasjoner som ikke har det (Det er ikke alle som vet at de har applikasjoner som "lekker" mens andre ikke bryr seg om det). Til slutt kan jeg jo nevne som Anders også helt korrekt nevner og det er at planlagt nedetid ikke alltid er bra. Det er slik at hvis en bedrift restarter en server hver eneste natt som en del av planlagt nedetid vil denne serveren stort sett ha lavere ikke planlagt nedetid enn en server som kun restartes (planlagt) en gang i året. Kan også nevne at den menneskelige faktoren har innvirkning. Hvor godt overvåkes serveren for potensielle problmer. Er det noen som har dedikert ansvar for å passe på den og hvilken kompetanse har den enkelt administrator. Dette vil også påvirke stabiliteten

 

I vår bedrift hadde vi en Windows 2000 server gående i 4 år sammenhengede uten nedetid i det heletatt. Den ble heller aldri restartet i denne perioden. Likevel betyr ikke dette at Windows 2000 server er noe mer stabilt enn en Linux installasjon.

 

Det er desverre slik at her er det alt for mange faktorer som spiller inn og det vil være umulig å si at det ene er bedre enn det andre. Så jeg må nok skuffe de fleste å si at denne typen undersøkelse ikke har all verdens verdi. Bortsett fra reklameverdien siden de fleste ikke leser hvordan tester foretas og lar seg lure.

Lenke til kommentar

Enda en faktor som kan være interessant: Hva er typisk kostnad for serverrommet til de respektive maskinene? Hvor mange om noen av Power maskinene opplevde nevneverdige temperaturendringer eller vibrasjoner og hvor mange av windows/linux serverne står i et bøttekott/ombygd kontor med vindu på solveggen?

 

Hva med disksystemene i bunnen? Det er litt forskjell på to SATA i RAID 0 og en Hitachi Universal Storage Platform V med "100%" oppetid (de opererer med 99.999% på de billigere modellene).

Lenke til kommentar

Denne undersøkelsen bekrefter andre undersøkelser om det samme, nemlig at AIX/Power er dønn stabilt. At det er denne kombinasjonen som ligger nærmest stormaskin i oppetid er også ganske logisk siden både HW og OS er et barn av mainframemiljøet i IBM. For eksempel virtualiseringsteknologien som ble innført i AIX5.1 og videreutviklet i 5.2,5.3 og 6.1 ble i stor grad designet av stormaskingutta som da hadde nærmere 40 års erfaring med dette.

 

Ellers er det grunn til å sjekke nærmere dette med "planlagt nedetid". Jeg vil anta at f.eks. Solaris-servere i større grad brukes til å serve brukere direkte og dermed har større behov for sikkerhetspatching og at dette gir mer planlagt nedetid. AIX-servere som ligger trygt an bak et tonn med brannmurer, vil ha mindre behov for dette.

 

Så er det et spørsmål om i hvilken grad en server trenger å tas ned for normalt vedlikehold, endring av konfigurasjon eller patching. Min erfaring er at AIX/Power i mindre grad trenger reboots enn for eksempel Solaris. Så det er også en del av bildet; planlagt nedetid er bedre enn uplanlagt nedetid(kræsj), men det beste er å unngå å ta maskinen ned i det hele tatt.

 

Det mest overraskende med undersøkelsen er at Linux kommer så høyt opp.

Endret av cfgmgr
Lenke til kommentar

Et annet moment er hvordan operativsystemet inviterer en administrator til å skyte seg selv i foten. HP-UX har jeg et bra inntrykk av selv om det er en stund siden jeg syslet med det. Solaris har på den annen siden vært ganske frustrerende. Speiling av OS-disker er ett eksempel. Et titalls steps i Solaris og gjør man en liten slurvefeil så er det *poff* og reinstallasjon/restore. I AIX er det to kommandoer og man skal virkelig trå til for å ødelegge noe.

 

(Nå skal det sies at til slutt fikk Solaris inn noe som funket selv om de var enormt sent ute. ZFS fikk root-disk støtte høsten 2008.)

Lenke til kommentar
Syns også det har mest med administratorer å gjøre. Men med Windows server er det nærmest umulig å unngå nedetid.

 

Ja, dessverre. Man kan godt ha Windows-servere som har oppetid på flere år, men det trenger ikke være en bra ting. Det betyr at man har en server med mange mange sikkerhetshull. Dette gjelder jo selvfølgelig ikke bare Windows-servere.

Men skulle vi hatt en Unix-server på jobb, ville nok oppetiden vært ganske dårlig. Når den først gikk ned, ville ingen ha hatt kompetanse til å fikse problemet. Det er veldig vanskelig å finne folk med Unix-kompetanse som er villig til å jobbe for kommunal lønn.

Lenke til kommentar

Kommer jo litt ann på hvilke tjenester man har på serverene også. Mange tjenester lar seg settes opp i et cluster, og da er ikke en planlagt patchrunde en gang i måneden så kritisk i og med at tjeneste fortsatt er tilgjengelig. Sluttbrukeren vil oppfatte det som "100%" oppetid.

Lenke til kommentar

Framover i tid vil jo ihvertfall linux bedre seg enda mer, ved bruk av for.eks ksplice. Hvis man da har 0 software/hardware problemer kan man jo være oppe så lenge maskinavara lever.

 

Edit :

 

cfmgr: Hva får deg til å si dette? Har du egentlig vært på Top 500 og sett andelen linux på stormaskinene?

Endret av rocknrolf77
Lenke til kommentar
cfmgr: Hva får deg til å si dette? Har du egentlig vært på Top 500 og sett andelen linux på stormaskinene?

Top500 er ikke relevant i denne sammenheng. HPC cluster bygges ikke for å være robuste de bygges for å være raske og billige.

 

Linux er gratis og godt nok (faktisk veldig bra til HPC). Derfor brukes det. Pålitelighet i HPC cluster opprettholdes ved at jobb scheduler kjører jobben på de nodene som er tilgjengelig. De som ikke er tilgjengelig blir ikke med å kjøre jobben.

Endret av Anders Jensen
Lenke til kommentar

>Muligens litt dumt spørsmål, men er det noen som helst grund til å bruke en en Apple >server? Har sett en sånn en gang før og han som opererte den var medlem av Apple >menigheten

 

Tja, kan jo hende man liker OSX?

Man har mange mac clienter.

Pris? vet ikke hvordan det er i forhold til andre.

 

Espen

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...