Gå til innhold

Se eksklusive bilder fra serverparken


Anbefalte innlegg

Det samme som alltid skjer - diskene knyttet til kontrolleren blir utilgjengelige. Det er derfor man normalt sikrer seg slik at en pool fint overlever selv om alle diskene på en kontroller blir borte, ved å sørge for at man ikke har begge diskene/rad0-ene i raid1 på samme kontroller. Fordelen her er jo at så fort kontrolleren er byttet, har du dataene tilbake etter et minutt, i motsetning til langvarig controller firmware reparasjonsopplegg.

 

Kry0pteringen i pool 33 er forresten ubrukelig, og kryptering med GELI i FreeBSD gir bedre ytelse. Men andre ting kunne vært greit å få med - så vi får satse på at Oracle holder ord og fortsetter å dele kildekoden. Hahahahahahaha. Oracle er et drittselskap.

 

Jeg fikk god ytelse når jeg lekte med det, men nå har jeg AES-ni klar CPU men kryptering på noe annet er jo bare latterlig. Benchet vel oppi 800 MB/s med kryptering, dette var praksis test, teoretisk fikk jeg vel 1.5 GB/s av AES. Og det er flere fordeler ved v33, selv om utviklingen av OpenZFS har gått fremover siden v28 så er de ikke på langt nær på nivå med v33. Oracle er da ikke noe dritt selskap? De er ute etter å tjene penger som alle andre, det er liksom jobben deres. Ikke og tilby deg gratis ting (selv om de faktisk tilbyr deg drøssevis med gratis ting, inkludert v33 ZFS)

Endret av Rudde93
Lenke til kommentar
Videoannonse
Annonse

Flott. Hadde dere bare fikset hjemmesiden og, slik at man ikke kommer til toppen av forsiden hver gang man går tilbake fra en artikkel. Forferdelig irriterende at man må bla seg ned på forsiden til der man var før man klikket på en artikkel. Har ikke opplevd dette andre steder enn på hw.no...

 

Hei,

Takk for tilbakemelding! Nå skal det problemet være løst i Firefox :-)

 

 

mvh,

Mads

Lenke til kommentar

Meget rent oppsett det der.

 

Det dere alle må skille på er at FC/FCoE/iSCSI alle gir access til Block Devices over SAN/LAN, deretter legger man et filsystem oppå som XFS/ZFS/ReiserFS/NTFS etc.

ZFS er veldig fint som filsystem men skalerbarheten begynner å bli problematisk med mye data.

 

Jeg jobber selv med lagrings produkter som skalerer til 16PB hver dag og det er veldig ofte jeg støter på misforståelser rundt Block Devices og faktiske filsystem.

 

Når det gjelder HA så må man også tenke på data consistency og prøve å unngå korrupsjon hvis noe skal feile over og det er ikke alltid det er lurt å ha et system som hopper frem og tilbake og sørger for at dataene blir korrupte.

 

Jeg går utifra at dere kjører med 2 separate SAN og kan derfor oppnå aggregated 32Gbit hastighet?

Benytter dere Brocade eller Cisco switcher for SAN'et?

Lenke til kommentar

Jeg går utifra at dere kjører med 2 separate SAN og kan derfor oppnå aggregated 32Gbit hastighet?Benytter dere Brocade eller Cisco switcher for SAN'et?

 

Det er snakk om ett SAN med 2 stk dual-port 8Gb/s kontrollere. Det går trafikk over alle fiber-parene. Dette er uansett teori da diskene i hylla ikke vil greie å levere den aggregerte kapasiteten uansett.

 

I det siste har vi kjøpt Brocade FC switcher.

 

Lenke til kommentar

Har dere vurdert å gå for Amazon Web Services eller lignende på noe tidspunkt?

 

Vi vurderte en rekke løsninger, men ikke Amazon eller andre cloud-løsninger spesielt nøye. Vi har flere store og ytelseskrevende MySQL-databaser som trives desidert best på eget, dedikert jern. I tillegg er det et ønske at vi kan bruke våre ressuser på å videreutvikle nettstedene og publiseringsløsningene våre, og i mindre grad bruke tiden vår på å bygge og vedlikeholde infrastrukturen.

 

Det er jo også et økonomisk spørsmål, og ved et eller annet punkt blir det billigere å kjøpe/lease egne servere enn det er å leie dem i skyen. Dagens oppsett består av 120 prosessorkjerner og 960 GB RAM.

 

Så langt må vi si vi er meget godt fornøyd med valget :-)

  • Liker 3
Lenke til kommentar

Jeg fikk god ytelse når jeg lekte med det, men nå har jeg AES-ni klar CPU men kryptering på noe annet er jo bare latterlig. Benchet vel oppi 800 MB/s med kryptering, dette var praksis test, teoretisk fikk jeg vel 1.5 GB/s av AES. Og det er flere fordeler ved v33, selv om utviklingen av OpenZFS har gått fremover siden v28 så er de ikke på langt nær på nivå med v33. Oracle er da ikke noe dritt selskap? De er ute etter å tjene penger som alle andre, det er liksom jobben deres. Ikke og tilby deg gratis ting (selv om de faktisk tilbyr deg drøssevis med gratis ting, inkludert v33 ZFS)

Selskap som er patenttroll, som bryter løfter gang på gang, dreper communitites m.m. er drittselskap. ;) Men nok om det.
  • Liker 1
Lenke til kommentar
  • 8 måneder senere...

Med alle disse backupsystemene med generatorer, doble strømsystemer og alt mulig rart så skulle man jo tro at verden gikk under om noen av disse nettsidene forsvant i noen timer. Løsningene her er jo tilogmed bedre enn det mange sykehus har for å sikre energiforsyningen sin i et nødstilfelle. Og der står det faktisk liv på spill. Ingen som dør om Hardware.no går ned for telling en dag eller to.

 

Tilogmed DNB sine sider hadde vel greid seg med litt nedetid. Lånekassen og inntaksfolkene har jo nedetid hvert år rundt opptakstider. Da står både folks fremtid og hundrevis av millioner av penger på spill fordi de ikke får tilgang. Går som regel greit det også, selv om det virker som krise der og da.

 

Virker bare uforholdsmessig påkostet i forhold til hvor viktig oppetiden er. Man punger ut millioner og bruker en masse ressurser på å sørge for ikke engang et millisekunds avbrudd. Ingen som dør av et lite avbrudd. I verste fall så taper man et par dagers omsetning.

 

Det er jo et lite fjell med bly og plast som skal byttes ut med jevne mellomrom i batterirommet der. Kan umulig være særlig miljøvennlig. For ikke å snakke om all strømmen som går med. Det er tøft med et slikt annlegg, men det er også veldig overdrevet.

Lenke til kommentar

Virker bare uforholdsmessig påkostet i forhold til hvor viktig oppetiden er. Man punger ut millioner og bruker en masse ressurser på å sørge for ikke engang et millisekunds avbrudd. Ingen som dør av et lite avbrudd. I verste fall så taper man et par dagers omsetning.

 

Tilogmed DNB sine sider hadde vel greid seg med litt nedetid. Lånekassen og inntaksfolkene har jo nedetid hvert år rundt opptakstider. Da står både folks fremtid og hundrevis av millioner av penger på spill fordi de ikke får tilgang. Går som regel greit det også, selv om det virker som krise der og da.

Folk bytter bank om nettbanken deres er utilgjengelig, så oppetid er absolutt viktig for banker. Se for deg å ikke kunne overføre penger man trenger om man f. eks er i utlandet, eller en stor transaksjon mellom noen bedrifter. Det er mer på spill enn at folk skal sjekke saldoen.

 

For å ikke snakke om at det er forventet at de leverer et visst tilgjengelighetsnivå, hvor Finanstilsynet er ansvarlig for å se over at driften går bra.

Endret av Occi
Lenke til kommentar

Med alle disse backupsystemene med generatorer, doble strømsystemer og alt mulig rart så skulle man jo tro at verden gikk under om noen av disse nettsidene forsvant i noen timer. Løsningene her er jo tilogmed bedre enn det mange sykehus har for å sikre energiforsyningen sin i et nødstilfelle. Og der står det faktisk liv på spill. Ingen som dør om Hardware.no går ned for telling en dag eller to.

 

Tilogmed DNB sine sider hadde vel greid seg med litt nedetid. Lånekassen og inntaksfolkene har jo nedetid hvert år rundt opptakstider. Da står både folks fremtid og hundrevis av millioner av penger på spill fordi de ikke får tilgang. Går som regel greit det også, selv om det virker som krise der og da.

 

Virker bare uforholdsmessig påkostet i forhold til hvor viktig oppetiden er. Man punger ut millioner og bruker en masse ressurser på å sørge for ikke engang et millisekunds avbrudd. Ingen som dør av et lite avbrudd. I verste fall så taper man et par dagers omsetning.

 

Det er jo et lite fjell med bly og plast som skal byttes ut med jevne mellomrom i batterirommet der. Kan umulig være særlig miljøvennlig. For ikke å snakke om all strømmen som går med. Det er tøft med et slikt annlegg, men det er også veldig overdrevet.

 

Hei.

 

Datasenteres hvor jeg jobber hostes norges nødnett som er ansvarlig for at kommunikasjon mellom alle instanser i Norge. I tillegg til det hostes også hele Norges helsevesens autentisering til deres egen maskiner, tilgang til pasient info og utskriving av resepter.

 

Så tja, vil nå si det er grunn nok for 0% nedetid.

Lenke til kommentar
  • 2 måneder senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...