Gå til innhold

HyperV – komplett servermiljø virtualisert fra én host


Horge

Anbefalte innlegg

Bygger en ny server på hjemmebane, for øvrig basert på AMDs G34 8-core m/32GB ram, hvor planen er å konsolidere eksisterende serverpark på ett virtualisert system.

 

Det blir Microsofts Hyper-V, ganske enkelt fordi jeg ønsker å tilegne meg mer kunnskap om denne plattformen. Har brukt VM-ware tidligere, er ikke misfornøyd, men ønsker altså å se hva Microsoft har å bringe til torgs med sin løsning. Forslag på at jeg heller bør bruke ESXi, Xen eller noe annet vil derfor prelle av som på teflon.

 

Det er altså snakk om hjemmekontor /-lab, så det er ikke aktuelt å sette opp flere bokser, selv om dette selvfølgelig hadde vært mer i tråd med best practice. Spørsmålet er derfor hvordan dette bør løses når alt skal inn på én og samme boks? Har lest side opp og side ned de siste dagene, men har inntrykk av at det er like mange, og diametralt motstridende, meninger som det er blogposter der ute.

 

Av funksjoner som trengs, så blir det domene (ad), filserver, web (iis), antakeligvis exchange, database (mssql), nettverk (brannmur, lokal dns, dhcp etc), “terminalserver” (trenger ikke fullblods ts, men en maskin fungerer i det minste som remote) og evt andre akutte eller vedvarende behov.

 

Har samlet meg opp et par nøkkelproblemstillinger hvor jeg er umåtelig takknemlig hvis noen gidder å gi meg sine kommentarer.

 

1) Den fysiske maskinen, hosten, bør den være med i domenet?

 

2) Det ene de fleste forståsegpåerne er enige om, er at hosten helst bare skal kjøre hyper-v, og null og niks annet. Like fullt er det flere som sier at man i et labmiljø godt kan la hosten også være domenekontroller (m/dns). På den måten vil alltid AD være på plass når de andre maskinene starter opp, og når man ikke har mer enn maks to simultane brukere, så blir aldri dette noe ytelsesproblem i praksis.

 

3) Lagringen ligger også på serveren, for øvrig et raid 6 (Areca 1880i m/8 disker), og i tillegg til å holde på filene for de virtuelle maskinene, så blir dette også fillagring for brukere. Bør hosten i så fall dele ut filene selv, eller bør man la en virtualisert maskin (f.eks. domenekontrolleren) få tilgang til disken direkte, og dele ut derfra? Eller burde man sette opp DFS på noe vis?

 

4) Bør man lagre de virtuelle maskinene på en egen partisjon, eller er det greit å kjøre det sammen med filer og annet rusk og rask på samme volum?

 

Innser at en del av spørsmålene henger sammen, slik at et valg man tar påvirker de valg man gjør ved neste korsvei.

 

Dersom det er noe jeg helt har glemt, så ikke vær redd for å påpeke dette… =)

  • 3 uker senere...
Videoannonse
Annonse

Hei. En stund siden du skrev innlegget, vet ikke om du har satt opp systemet enda.

Jeg har brukt Hyper-V i skolesammenheng og privat. Er fornøyd med Hyper-V.

 

Jeg har kjørt den fysiske hosten som DC, og ja det går fint med få brukere. Var vel oppe i 4 samtidige brukere på det meste.

Fordelen ved å bruke den fysiske hosten som DC er at når de virtuelle maskinene starter opp (etter omstart eller strømbrudd) får de kontakt med domenekontrolleren med en gang og du slipper eventuelle problemer som kommer ved at de ikke får kontaktet DC ved oppstart.

 

Når det gjelder deling av filene er jeg usikker på hvordan du bør gjøre det. Her bør du teste både å dele fra en virtuell filserver og fra den fysiske serveren. På skolen hadde vi ytelsesproblemer ved å kopiere filer fra en virtuell maskin til en annen, dette var riktignok via nettverk, altså mellom 2 virtuelle maskiner som lå på hver sin fysiske maskin.

 

Hvis alt er i RAID-6 alikevel, har det vel minimalt med betydning om du har et eget logisk volum til de virtuelle maskinene.

  • 2 måneder senere...

Jeg kjører et tilsvarende miljø hjemme, og satt med samme spørsmål i utgangspunkt. Etter mye lesing og snakking med folk som etter eget sigende kan dette (samt en grei dose egen erfaring) kom jeg til følgende konklusjoner:

 

1. Jeg har ikke hosten med i domenet. Den har ikke tilgang til nettverket en gang, Jeg vil ha så clean kjøremiljø på hosten som mulig. Minst mulig flate for feil. Hadde jeg hatt litt bedre tid på å sette opp dette så hadde jeg sannsynligvis kjørt den uten GUI også.

 

2. Flere tjenester gjør hosten mer sårbar, som nevnt over. Likevel mener jeg at det koker ned til kost/nytte. Skal man kjøre failover cluster så ja, fyr inn AD på dem. Skal man ikke så avhenger det av hva du har av ledige ressurser. Du har garantert ressurser til overs på hosten, og kan utnytte disse til å kjøre AD i stedet for å ha en egen dedikert VM til det. Men har du ressurser tilgjengelig til en egen AD-VM så kan du like godt råflotte deg litt. Det at AD skal være klart når de andre maskinene er nede har jeg aldri skjønt poenget med hvis man ikke clustrer. AD er ikke tilgjengelig hvis alle serverne er nede i et fysisk miljø, og ingen har dødd av det enda så vidt jeg vet :)

 

3. Filshare på hosten strider mot konseptet med liten flate. I tillegg bør filserveren din være medlem av domenet, så da blir hosten plutselig en fullblods produksjonsserver. Jeg liker heller ikke helt konseptet med å lagre alle data i VHD-en, da jeg føler jeg mister kontroll med dataene. Derfor har jeg et eget array til lagring, og kjører dette som pass through. Den store ulempen er at man mister muligheten til å ta snapshots av VM-ene når pass through-disker er i bruk. Filserveren min er ikke bare lab, men har alle data og media til familien, så det er snakk om en god del data.

 

4. Jeg ser ingen grunn til å partisjonere opp en disk eller et array. Mapper gir like grei kontroll over en liten server, og det er ingen forskjell i IO-belastning. Selv har jeg valgt å dele host, VM-er (og VHD-er) og data over tre separate arrays rett og slett fordi jeg hadde kontroller og disker nok til det.

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...