Gå til innhold

Webkafeen


Anbefalte innlegg

Videoannonse
Annonse
Min start på 2008 var så dårlig at jeg skal holde meg unna flaska en liten stund gitt. På'n igjen neste fredag da!

-

Hein, følger du ikke med? Hun har jo type, som faktisk er her i helga. :p

 

 

Pøh.. type skulle da ikkje være noen hindring, bare tar litt lengre tid ;)

 

Ellers så har eg samme innstilling som deg denne helgen.. var fremdeles fyllesyk på onsdag så denne helgen blir rolig :p

Lenke til kommentar

Tviler jeg sterkt på.

Hvis vi tar en typisk kaféside som er på 20kB (noe jeg ville tro er langt større enn gjennomsnittssiden) og ganger med 30 milliarder sider (Yahoo sa vel for ett eller to år siden at de hadde en index på 20 mrd. hvis jeg husker riktig) blir det 600 TB. Bruker man Zlib som var den komprimeringsbibloteket Google orginalt brukte ville jeg fort tro man kunne få HTML-sider ned til 1/3 av orginal størrelse, altså 200TB.

 

Hvis vi sier oss at man kan få tak i 500GB disker for 500 kr ved kjøp i store volum kommer man fort ned i 400 disker, eller 200 000 kroner.

 

I tillegg trenger man selvfølgelig disker for indeksen, pagerank, linkdatabse osv. Men diskplass for det ville jeg nok tro ikke koster alt for mye. Det er nok være med ram og prosessorkraft. Og ikke minst teknolgi til å kunne konkurere med Google.

Endret av JonT
Lenke til kommentar

Tviler jeg sterkt på.

Hvis vi tar en typisk kaféside som er på 20kB (noe jeg ville tro er langt større enn gjennomsnittssiden) og ganger med 30 milliarder sider (Yahoo sa vel for ett eller to år siden at de hadde en index på 20 mrd. hvis jeg husker riktig) blir det 600 TB. Bruker man Zlib som var den komprimeringsbibloteket Google orginalt brukte ville jeg fort tro man kunne få HTML-sider ned til 1/3 av orginal størrelse, altså 200TB.

 

Hvis vi sier oss at man kan få tak i 500GB disker for 500 kr ved kjøp i store volum kommer man fort ned i 400 disker, eller 200 000 kroner.

 

I tillegg trenger man selvfølgelig disker for indeksen, pagerank, linkdatabse osv. Men diskplass for det ville jeg nok tro ikke koster alt for mye. Det er nok være med ram og prosessorkraft. Og ikke minst teknolgi til å kunne konkurere med Google.

Jeg var på en eller annen forelesning av Google om hvordan Google fungerte. Fra det jeg husker så lagres alt tre doblet (sånn at de ikke mister noe som helst om et helt datacenter går offline) og hele nøkkelord indexen er lagret "to ganger" for at de trenger en invers en også. I tillegg trenger du lagrinsplass til diverse applications, for ikke å nevne de komprimerte bildefilene som Google lagrer i bildesøk. Jeg husker at de nevnte at dersom de var nede på 100TB fri lagrinsplass så var det panikk hos Google.

Lenke til kommentar

For ikke å snakke om det faktum at Google ikke går ned på den lokale sjappa og handler SATA-disker. Jeg vet at de ikke baserer seg på de dyreste lagringsløsningene, og at de faktisk bruker en del rimeligere løsninger, men ikke sammenlign Google sin lagring med en hjemmemekket filserver. Utgangspunktet ditt er feil.

Lenke til kommentar
For ikke å snakke om det faktum at Google ikke går ned på den lokale sjappa og handler SATA-disker. Jeg vet at de ikke baserer seg på de dyreste lagringsløsningene, og at de faktisk bruker en del rimeligere løsninger, men ikke sammenlign Google sin lagring med en hjemmemekket filserver. Utgangspunktet ditt er feil.

Men selv om man skulle trippellagre data og bruke tre ganger så dyre disker vil prisen fortsatt være en brøkdel av de 4 millioner dollarne de sier i artikkelen. Det er poenget mitt.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...