Gå til innhold

Google slipper diskfeilanalyse


Anbefalte innlegg

En annen sak er at man i slike systemer gjerne ønsker å bruke utstyr som har vært i bruk en stund, da gjelder dette særlig mikroprossesorer. Grunnen er at man ved å benytte "foreldet" maskinvare vet at de holder til det de skal. Det er ikke uten grunn at det finnes utrolig mange pentium 1 prossessorer ute i verdensrommet - forutsigbarhet er viktig.

 

Når det er sagt stusser nå jeg også på om google bruker så tregt utstyr som her foreslått. Når man tenker på den store datatrafikken som googles serverparker har til daglig synes jeg det virker som en flaskehals med så lite prossesseringskapasitet som her foreslått, spesielt med tanke på utnytting av s-ata og p-ata 133 standardene.

 

Har uansett ingen planer om mer synsing angående dette  :thumbup:

7983474[/snapback]

Vis du ser denne videoen vil du se hvorfor Google bruker "trege" servere: http://www.uwtv.org/programs/displayevent.asp?rid=1680

Obs! videoen er lang og teknisk.

Det handler om att man ikke trenger så mye datakraft per tråd, att det stortsett er snakk om å lese fra diskene og å få mest for penga.

Lenke til kommentar
Videoannonse
Annonse
  • 2 uker senere...

En relevant artikkel:

 

Disk Drive Failures 15 Times What Vendors Say

 

Fritt oversatt: "Produsentene hevder en MTTF på 1 til 1,5 millioner timer, eller sagt på en annen måte: en feilrate på 0,88% per år. Studier viser at feilraten er på 2-4%. Studien viser også at det ikke er forskjell i feilraten på topplinjen med SCSI, fiberkanal-disker og vanlige SATA-disker. Diskprodusentene nekter å uttale seg om saken.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...