Gå til innhold

Windows 8 klar i 2012?


Anbefalte innlegg

DarkSlayer: Jeg har designet en del enterprise systemer. Eller i det minste deromkring. 70TB lagring delt på ESX HA cluster. Ikke helt enterprise for de som kommer fra stormaskin miljøer, men for de fleste her burde det holde. Vi snakker om systemer til 4++mill her.

 

Er også klar over at Windows har hatt en enorm fremgang i server markedet. Særlig på low end, men det finnes faktisk noen Itanium cluster typisk med windows server og SQL der ute som rister ymse Unix maskiner i filler.

 

Når det gjelder overhead på OS nivå virtualisering og hardware partisjoner så er den nær nullnixognada. Det er derfor de er så geniale. Årsaken til lav overhead er at du aldri stabler to OS stacker oppå hverandre, hvilket er galskap i utgangspunktet, men som tidligere nevnt veldig bekvemt med dagens OS. Jeg ser ingen grunn til at morgendagens OS skal ha samme begrensninger.

 

Hva Azure angår så tror jeg det er viktig å holde det separat fra Windows Server. Så langt jeg vet er dette nokså forskjellig teknologi og så langt jeg kan se har Azure en mye lysere fremtid enn WS. Utviklings tidspunkt tatt i betraktning så burde vel ikke det være en bombe?

Endret av Anders Jensen
Lenke til kommentar
Videoannonse
Annonse
1: Dette bildet er old news. Postet 6 aug 2009

2: Det kommer en Windows versjon etter windows 7? Hadde eg aldri trodd! /sarkasme

 

Windows XP: 2001

~6 år

Windows Vista: 2007

~5 år

Neste major release: 2012.

Osv. (Windows 7 er tross alt ikke en major release.. XP er vel det?)

 

Det med 128-bit er mer interessant, personlig hadde eg hørt at Microsoft drev med interne tester av 128-bit, ikke at de hadde noen som helst planer om å legge det i neste OS? Jaja, mye kan skje på 3 år.

 

Windows XP var vel ikke ment som en major release. Windows XP er stort sett basert på Win2k, men har vel blitt det pga populariteten.

Lenke til kommentar
Blir vel en stund til vi ser mer minne i maskiner enn 64 bit støtter (16.7 millioner terrabyte). Så hva er poenget med 128 bit? Lengre instruksjonssett?

Det er et par viktige problemstillinger rundt dette som bør nevnes:

 

1) 128bit OS er et rykte

2) hvis det er 128bit, hva er det som er 128bit? det finnes allerede en del 128bit FP enheter der ute, og enda bredere SIMD enheter. Dette er imidlertid ikke av stor konsekvens for et OS. Det som er viktig er 128bit integer representasjon og enda mer dramatisk er 128bit minne adressering.

3) 128bit minneadressering er mer adresse rom enn det finnes atomer i universet... jeg vil ikke avgi mine atomer til RAM... ;)

4)128bit virtuelt adresse rom kan utnyttes ved at en har "glisne datastrukturer" dvs. mye tom plass. Det finnes en del algoritmer hvor mesteparten av tabellene bare er tom plass. En velger å gjøre dette fordi det kan være mulig å gjøre en veldig CPU intensiv algoritme om til en mindre CPU intensiv algoritme men med desto større RAM behov. hvis en kan adressere kun de elementene hvor algoritmen har lagret data i fysisk RAM og bare huske at resten er tomt så kan en potensielt få enorme tabeller med mye luft og slik sett løse nye problemer.

5) Noe av adresse rommet kan benyttes til å adressere andre lagringsmedier enn RAM, også medier som er koblet via nettverk. f.eks ha ett flatt minnehierarki for en hel cloud for både RAM og disk. Videre kan en bryte opp adresserommet hierarkisk med den kostnad at en god del blir sløst bort og den fordel at en kan route forespørselen vesentlig raskere.

Endret av Anders Jensen
Lenke til kommentar
Om de ville ha kuttet ut 32bits utgaven av windows 7, så ville de vel tapt alt av salg til folk som sitter med gamle, ræva pcer? ;)

Det begynner å bli ganske lenge siden siste 32 bit's CPU'en ble solgt... (5 år ca).

 

Hørt om Netbooks og Intel Atom? Ja, det finnes 64-bits Atom prosessorer, men det finnes også en rekke maskiner med 32-bits versjoner som fortsatt er i salg.

Lenke til kommentar

Dette med antall bits er ganske opp-hauset da. Det er ingen andre opplagte/vesentlige fordeler med mer bits til minne adresseringen enn den maksimale mengden ram.

2^32 = 3,xGb ram.

2^64 = sinnssykt mye.

2^128 = bare tull.

Hvis ikke de kommer opp med bedre argumenter er dette sprøyt!

Dessuten finnes det ingen main-stream cpu'er med 128-bits arkitektur nå, og vil, mest sannsynlig, ikke det om tre år heller.

 

(Jeg snakker ikke HPC nå)

Lenke til kommentar
Gjest Slettet-Pqy3rC
Det er fortsatt en del 32bit software der ute som tross alle gode lovnader om bakoverkompatibilitet ikke lar seg kjøre på 64bit systemer.

Det kan umulig være mye, alt av 32 bit jeg har tatt i kjører greit under WoW64. 16 bit er en annen sak, det lar seg ikke kjøre. Derimot kan en isolere disse applikasjonen til gamle os dersom en av en eller annen grunn må beholde dem.

Videre er det slik at 64bit OS kjernene ikke er like stabile som 32 bit versjonene. Så langt jeg har erfart gjelder dette for Windows, Linux samt BSD og sikkert flere OS. For de oppgavene hvor stabilitet er viktigere enn ytelse og skalerbarhet så vil derfor 32bit OS fortsatt ha noen fordeler.

Når det gjelder Windows finner jeg 64 bits utgavene om ikke bedre så ihverfall fullt på høyde med 32 bits variantene. Så der kan vi være enige om å være uenige.

Et poeng er imidlertid at det finnes en del hardware leverandører fortsatt ikke leverer 64 bits drivere og det kan jo skape ustabilitet. (Dersom W7 kun kom i 64 bits utgave hadde kanskje disse endelig ha fått ut fingeren.)

Lenke til kommentar
Gjest Slettet-Pqy3rC
128 bit... Er det ikke snart på tide de kutter ut 32 bit?

De har (endelig) kuttet ut 32bits på serversiden. Windwos 2008 R2 kommer ikke som 32-bit.

Ja, takk og lov. La oss håpe de avslutter 32 bit på desktop med Win7 slik at alle W8 installasjoner adresserer mer enn 4Gb RAM.

(Selv om de burde ha avslutta 32 bit med Vista, men W7 er vel Vista så da...)

Lenke til kommentar

128-bit prosessor har fordelen av at de kan dytte voldsomt mye RAM i slengen (16-byte for hver syklus, og på 3 GHz er det 36 GB/s) dessuten er det en fordel for operasjoner som jobber med slike datamengder (som videodekoding)

Det kan dog også være at det er FPU-en som blir oppgradert fra 80-bit til 128-bit (nei, FPU-en er ikke 64-bit i x86 som mange later til å tro, den er 80-bit, og det har den vært så lenge den har vært innebygget i prosessoren)

Men uansett har det neppe noe med minneadressering å gjøre.

Lenke til kommentar
Hva er det som gjør VMware til en tullete virtualiseringsløsning? Kan du utdype dette noe Anders Jensen? Trodde VMware var ledende på virtualisering, tar jeg feil?

Vmware medfører at en stabler to stykk OS stacker oppå hverandre. Dette medfører betydelig overhead samt at OS i guest egentlig bare bedriver masse unødvendig tull med scheduling på virtuelle ressurser den ikke har noen forutsetning for å gjøre scheduling mot siden ressursen er delt transparent for guest OS. Det blir som om du et dusin bartendere skulle fylle øl i samme glass uten å vite at noen andre også forsøkte å fylle glasset. Det blir bare søl som noen andre må rydde opp i. dvs Hypervisoren som er det egentlige OS i Vmware ESX eller host OS om du kjører vmware server.

 

Det er forsåvidt riktig at vmware er ledende på nymotens billig virtualisering. Jeg benytter dette i massevis selv på jobben og hjemme. Det finnes imidlertid langt bedre måter å virtualisere på. Problemet er at disse ikke er så veldig tilgjengelig for den gjevne windows/linux admin. Enten pga pris eller fordi de ikke gidder å kjøre f.eks opensolaris. Jeg havner selv i denne båten forøvrig... er ikke helt sikker på hvorfor egentlig. Har vel aldri sett for meg at jeg skulle sette meg inn i solaris.

 

Det som er genialt med Vmware er jo alle de funksjonene de har klart å legge inn i ESX, måten det hele er implementert på bærer imidlertid mer preg av å gjøre det enkelt for administratorer heller enn å få minst mulig overhead. Det har jo vist seg å være en god business modell og vil vel fortsette å være det inntil OS nivå virtualisering blir mer modent eller billigere (i tilfelle AIX WPARs).

 

Nå kommer jo også vmware med et eget paravirtualisert guest OS som er veldig tynt. Hvis en bruer dette fremfor win/*nix så blir jo resultatet veldig likt OS nivå virtualisering med hensyn på hvilke oppgaver som løses hvor i den totale stacken.

 

GeirGrusom: bitbredden på CPU bussene og issue-width er noe helt annet enn "bitness" på prosessoren. Dagens 64bit prosessorer dytter typisk 192 eller 256bit data per syklus. Itanium (64bit) kan vel måke gjennom 256bit load + 256bit compute + 256bit store i samme syklus.

Endret av Anders Jensen
Lenke til kommentar
GeirGrusom: bitbredden på CPU bussene og issue-width er noe helt annet enn "bitness" på prosessoren. Dagens 64bit prosessorer dytter typisk 192 eller 256bit data per syklus. Itanium (64bit) kan vel måke gjennom 256bit load + 256bit compute + 256bit store i samme syklus.

 

Jepp jepp :)

 

Jeg snakker rent overfladisk om en enkelt mov qword ptr [rax], rbx instruksjon. Flytting av store datamengder gjøres normalt ikke av prosessoren allikevel, men av DMA kontrolleren.

Endret av GeirGrusom
Lenke til kommentar
Ifølge nye rykter skal Microsoft ha planer om å lansere 128-bit-versjon av Windows 8.

Dette høres ut som tull. Vi vet godt om 32 og 64 bit utgavene, men 128 bit høres ganske meningsløst ut. 128 bit er i hvert fall ikke aktuelt for x86-prosessorer, og hva annet skal Windows kjøre på? Jeg tror det er et resultat av noen som kan tallrekka 32-64-128-osv uten å forstå noe særlig ut over det.

Lenke til kommentar
Hva servere angår så tror jeg kanskje ikke Windows har så veldig lys fremtid, men det vil jo tiden vise. Det er veldig mange krefter som trekker i forskjellige retninger på denne fronten og virtualisering er vel heller ikke noe veldig mange egentlig forstår konsekvensen av eller vet hvordan det helst bør implementeres. Selv synes jeg OS nivå virtualisering blandet med hardware nivå virtualisering (fysiske partisjoner) er riktig vei å gå. Eksempler på OS nivå virtualisering er AIX WPAR, FreeBSD Jail, Solaris Container, samt et knippe løsninger for Linux. Den virtualiseringen en finner i Vmware ESX(i) og server, Xen, HyperV, KVM osv er bare tullete, men praktisk i en overgangsperiode. Den som får dette riktig først vil nok skaffe seg en god plassering.

Hva mener du vil karakterisere en løsning som gjør virtualisering "riktig"? Hva innebærer det?

 

Full virtualisering har jo sin fordel i at det lar deg kjøre et annet OS som gjest enn du har på vert uten problemer. Og det er forståelig nok interessant for en del, da mange applikasjoner kun er støttet på enkelte platformer. Og det er kanskje ikke den samme platformen som du ønsker å kjøre i bunnen av systemet ditt. Det jobbes også stadig bedre drivere for paravirtualisering, og det hindrer jo de værste ytelsesproblemene sammen med minnedeling mellom gjester.

Men hvem sier at du må velge? libvirt håndtere alle former for virtualisering, fra applikasjonsisolering til VPS med LXC og full virtualisering med KVM/Xen/ESX. Har du sett noe på denne platformen? Det er riktignok helt i startgropa, men jeg synes det er lovende.

 

Jeg har ikke inntrykk av at MS gjør det så dårlig som man kanskje skulle tro de ville i en verden hvor virtualisering stadig blir mer vanlig. De har verken spesielt gode lagringsløsninger (mange bruker riktignok dedikerte enheter til slikt), eller hypervisor. Og lisensieringen legger kraftige begrensninger på hva du kan gjøre og hvor mye det vil koste deg sammenlignet med en fri Linux distro eksempelvis.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...