Gå til innhold

Test av ulike RAID-løsninger i GNU/Linux


Anbefalte innlegg

Hva skal man se etter av kontrollere og oppsett i en ny maskin? Trenger man en kontroller til 2-4000 for å sikre opptid og datakvalitet uten å miste ytelsen man betaler for? Er SCSI fortsatt det eneste som gjelderfor maskiner som skal yte bra? I denne testen skal vi se på noen av mulighetene man har, og resultatene degir, når man skal velge et disksystem for en maskin.Les mer

Lenke til kommentar
Videoannonse
Annonse

KJEMPEINTERESSANT!

 

Denne artikkelen er noe av det nyttigste jeg har sett på lenge.

Slik jeg tolker resultatene:

 

- SW RAID i LINUX er noe av det kvikkeste du kan finne.

- SiI 3114 utgjør fullgod bro mellom disker og CPU/minne

 

Hvis jeg ikke tar feil er alle de dedikerte kontrollerne PCI-X versjoner hvilket

kan bety ekstra kostnad til HK og prosessor i tillegg til selve kontrolleren.

 

Konklusjon:

Et anstendig. rimelig HK med SiI-3114 kan bli en fullgod RAID-5 filserver

nesten på høyde med spesialiserte systemer!

Har ikke råd til å la være!!

:thumbup:

Lenke til kommentar

Det skulle vært interresant å se en sammenligning av SW vs HW raid på W2K.

Jeg lurer på er om det er driver-kvaliteten på Linux som gjør SW raid så bra i denne testen.

 

Også gjerne en oppfølgings artikkel med SATA-II disker i testmaskinen.

 

En ting som er glemt i konklusjonen er Storage Class. Kjøper du storage class disker til SATA

bør de holde like lenge som tilsvarende SCSI disk (og være nesten like dyre..).

Lenke til kommentar

Meget bra artikkel Mathias!

 

Jeg ble også overrasket over hvor bra SiL-kontrolleren holdt koken.

 

Det var også omponerende hvor bra vanlige 7200rpm SATA-disker holdt ut i forhold til 10.000rpm SCSI-disker.

 

En annen ting jeg la merke til var at CPU-belastningen var ganske proposjonal med ytelseresultatet i testene. Selv ikke SW raid økte CPU-belastningen noe merkbart over HW raid (stort sett da). Dette betyr vel at disk-bruk generellt sett ikke er noen stor belastning for hverken CPU eller kontrollerene, og at CPU-belastningen stort sett beror på den store trafikken CPU må generere/levere.

 

Jeg ser også frem til en test av SW raid på Windows 2k/XP/XPx64 vs. linux og evt en test av Raidet SATA med og uten NCQ-støtte.

 

Forøvrig så kan kanskje denne tråden interressere leserene her:

Harddisk og Flash i Raid1 - Mulig?

Lenke til kommentar

Testen ble utført på to disker i RAID 1 - Mirroring. Dette er det jeg oppfatter som den aller vanligste konfigurasjonen man finner på servere rundt omkring. RAID 5, 0+1 og 10 er mer et behovsspørsmål. Maskiner uten spesielle krav burde ikke trenge mer.

 

Jeg er enig i at det er svært mye i denne testen som kunne vært utdypet mer. "Hvordan yter maskinene i RAID 5 med fire disker", for eksempel, men tiden strakk ikke til og lengden på artikkelen ville nok blitt minst dobbelt så lang. Det er kanskje litt overkill med så tøffe kontrollere for en liten oppgave som det å speile en disk, men vi fikk avlivet en myte om ikke annet.

 

Bra at dere likte testen. :)

Lenke til kommentar

Oppdaget selv "problemet" med LSI 150-6 kontrolleren under 32bits linux da jeg satte sammen en server for halvannet år siden.

Kjører 6 250GB disker i RAID5 og ble mildt sagt skuffet over leseytelsen til kontrolleren. Konklusjonen den gang etter en del undersøkelser og leting i driverteamets mailinglistearkiv var at fenomenet var kjent men ikke prioritert. Trist å høre at det ikke har endret seg det siste året for LSI SATA kontrolleren som ellers er en fryd å jobbe med.

Det er mulig å bedre ytelsen betraktelig for en begrenset mengde data ( <100MB )ved å justere et par bufferparametre i driveren, men dette er udokumentert og har selvsagt kun kuriøs interesse. Fenomenet finnes både i den opprinnelige megaraid driveren og i den nyere megaraid2 driveren som begge var/er støttet i standardkernelen.

 

Morsomt om HWB kunne ha testet den nye SATA-kontrolleren fra LSI for å se om den også er rammet av problemet.

Lenke til kommentar

Endelig en test som viser ytelsesforskjell blant forskjellige RAID-løsninger. Ser ut som at hvis man skal ha en SCSI-basert RAID-løsning, er nok en kontroller fra Adaptec det eneste rette valget. I de fleste tester knuste Adaptec-kontrollerne det meste av motstanden blant SCSI-løsningene. Men jeg ble også imponert over SATA-kontrolleren fra Silicon Image.

Lenke til kommentar

hmm.

siden det er RAID 1 tror jeg ikke det hjelper mye med HW RAID controller, siden det er det samme som går til begge disker. med RAID 5 må det regnes ut XOR for hver bit slik at det kan lages redundans. dette trenger CPU kraft.

 

en god ting med softwareraid er at du ikke er avhengig av en kontroller. dør SCSI kontrolleren din, er det bare å skaffe en ny en. du behøver ikke å engste deg så mye over kompatibilitet. Linux med RAID autodetect som parisjons id, skal klare å finne ut hvilke fysiske partisjoner som hører til hvilke logiske partisjoner (må ha persistent superblock tror jeg, når du lager RAIDet). mener du kan ta alle diskene ut av maskina. putte dem i en annen maskin, boote, og raidet kommer opp!

 

jeg kjøpte et dual Xeon hk med innebygget gigabit net, grafikk og Adaptec SCSI kontroller.

det er et kort som dekker det meste. pluss at det bør være bedre kvalitet enn "normale" billige P4 hovedkort...

 

Linux støtter faktisk hot spare disker.

 

få tak i et kabinett som har SCA(80 pin/hot swap disker)

 

en "#¤!" IDE disk tryna på jobben, skru av maskina, rote med kabler og skru den på igjen) så i biosen til kontrolleren vente i TIMER på å bygge op RAIDet igjen. har 4*120GB disker i RAID 5. (highpoint 468, tror jeg den kalles. 4 IDE kanaler)

jeg vil aldri bygge mer servere med IDE.

 

Linux bygger opp igjen raidet mens du bruker det. så du trenger ikke vente før brukerene kan logge på igjen!

 

hadde en SCSI disk tryna, noe de ikke gjør så ofte som IDE disker, er det bare å be Linux om å ta den ut av RAIDet, dra ut disken. stappe en ny en i. og ha Linux legge den til RAIDet.

 

hvis du vil bruke IDE i RAID, så for all del bare bruk en disk per kablel.

hvis en disk tryner, kan den ta med seg den andre disken på kablen, og har du RAID 5 med 2 tryna disker sliter du ....

pluss at ytelsen faller med 2 disker per kabel.

 

morten

Lenke til kommentar
Savner testing av 3ware :)

Jeg hadde et 3ware-kort liggende klar til testen, men geniene som har designet layouten på kortene har konsentrert seg om å gjøre det så langt som mulig. Kort i seg selv stikker ca. en centimeter inn i kjøleribben til prosessorene og etter det så er det meningen at man skal plugge inn kabler. Dårlig løsning spør dere meg.

 

Jeg ba om en 3ware-kontroller fordi de har et godt rykte, men det var dessverre ikke mulig å få gjennomført testen med kortet. Etter det jeg har funnet på 3wares hjemmesider så ser alle kortene deres slik ut, så det var ikke hjelp å få der.

 

Nå er det mange som bruker 3ware-kort så det var i akkurat vårt tilfelle det ikke fungerte, men man skal være obs på slike hindringer også.

Lenke til kommentar

siden det er RAID 1 tror jeg ikke det hjelper mye med HW RAID controller, siden det er det samme som går til begge disker. med RAID 5 må det regnes ut XOR for hver bit slik at det kan lages redundans. dette trenger CPU kraft.

Det stemmer nok det, men husk det at IDE ofte får pepper for høy last ved IO. I dette tilfellet så må kontrolleren snakke med to disker for hver skriveoperasjon(jeg har ikke studert md godt nok til å kunne si hva den gjør ved lesing). Det hadde vært gø å sett hvordan md hadde gjort RAID 5, men det får bli en annen gang.

en god ting med softwareraid er at du ikke er avhengig av en kontroller. dør SCSI kontrolleren din, er det bare å skaffe en ny en. du behøver ikke å engste deg så mye over kompatibilitet. Linux med RAID autodetect som parisjons id, skal klare å finne ut hvilke fysiske partisjoner som hører til hvilke logiske partisjoner (må ha persistent superblock tror jeg, når du lager RAIDet). mener du kan ta alle diskene ut av maskina. putte dem i en annen maskin, boote, og raidet kommer opp!

Nå er du ille ute uansett hvilken kontroller som dør uansett om det er en flott SCSI-kontroller eller en billig SiI-brikke.

 

En morsom bieffekt av å skyfle disker rundt forskjellige kontrollere var at nye kontrollere jeg satte i maskinen hylte over gamle oppsett den fant på diskene. Jeg ville vel ikke stolt 100% på hva den nye kontrolleren fant ut da Adaptec-kontrolleren faktisk hengte seg før jeg slettet arrayet.

jeg kjøpte et dual Xeon hk med innebygget gigabit net, grafikk og Adaptec SCSI kontroller.

det er et kort som dekker det meste. pluss at det bør være bedre kvalitet enn "normale" billige P4 hovedkort...

Jeg vil anbefale folk som skal kjøpe servere om å kjøpe ferdige maskiner. Drift i hardware.no har hatt mange kjipe erfaringer med selvlagde servere. Garantien man får med de fleste ferdigmaskiner er bedre enn med enkeltkomponenter. Fungerer ikke boksen, og du ikke vet hvorfor, så sender du den i retur.

Linux støtter faktisk hot spare disker.

Joda, men du får neppe et like tranparent system. Har ikke erfaringer med hot-spare og md selv.

få tak i et kabinett som har SCA(80 pin/hot swap disker)

Det var det jeg testet SCSI-diskene i. Maskinen fra Nextron har hot-swap diskløsning for SATA innebygget, men det skorter litt i Linux for ekte hot-swap for SATA. Mulig Adaptec- og LSI-kontrollerene kunne løst dette.

en "#¤!" IDE disk tryna på jobben, skru av maskina, rote med kabler og skru den på igjen) så i biosen til kontrolleren vente i TIMER på å bygge op RAIDet igjen. har 4*120GB disker i RAID 5. (highpoint 468, tror jeg den kalles. 4 IDE kanaler)

jeg vil aldri bygge mer servere med IDE.

Jeg vet. Jeg vil vel ikke gi IDE skylden for alt ondt i verden, dårlige kabinetter finnes det mange av.

Linux bygger opp igjen raidet mens du bruker det. så du trenger ikke vente før brukerene kan logge på igjen!

Det gjør de alle. Både LSI og Adaptec har klienter som man kan bruke for å snakke med kontrolleren. Jeg testet ingen av dem da jeg skulle nuke diskene mellom hver gang. De reklamerer sterk for det å skifte RAID-type under fart. Det går fint også med md, men er litt av et hack.

hadde en SCSI disk tryna, noe de ikke gjør så ofte som IDE disker, er det bare å be Linux om å ta den ut av RAIDet, dra ut disken. stappe en ny en i. og ha Linux legge den til RAIDet.

Mja. I prinsipp så skal dette fungere for SATA også, men sist jeg sjekket så støttet ikke kjernen det. Nå skal det sies at SATA er underlagt SCSI i kjernen så man kan forvente mye av den samme funksjonaliteten. Jeg vil anta at dyrere kontrollere støtter dette. De har egne drivere som skal håndtere dette.

hvis du vil bruke IDE i RAID, så for all del bare bruk en disk per kablel.

hvis en disk tryner, kan den ta med seg den andre disken på kablen, og har du RAID 5 med 2 tryna disker sliter du ....

pluss at ytelsen faller med 2 disker per kabel.

Sant nok, men hva gjør du da på en SCSI-rekke med si seks disker på en kabel? :) Kortslutter en disk datakablene så tror jeg du er ille ute uansett kontroller og løsning. Du finner sikkert noen svindyre systemer som tar høyde for dette, men det tror jeg blir veldig dyrt.

Endret av TiaZzz
Lenke til kommentar

hva jeg har forstått:

SCSI har hatt taged command quening lenge, og muligheter til å be forskjellige disker om å gjøre forskjellige ting samtidig.

SATA har muligheter for dette også, til en hvis grad.

så dette vil også få SATA nærmere SCSI ytelse.

stemmer dette?

 

er det SATA med 15K rotasjonshastighet?

hvis ikke vil SCSI fremdeles ha et overtak ved søking.

 

#Nå er du ille ute uansett hvilken kontroller som dør uansett om det er en flott #SCSI-kontroller eller en billig SiI-brikke.

 

jeg tenkte mer på at din 6 år gamle kontroller tryner og viser seg å være properitær, og de ikke selges legnre. er det nytt nok skulle det bare være å få en tlsvarende en.

 

ferdige maskiner. ja, er nok enig i det. jeg er bare så altfor vant med et veldig lite budsjett.... (f.eks, få tak i et $135 kabinett på ebay med dual 300W power og plass til 6 hotswap disker og håpe at det er nok strøm. bad! det var et nytt kabinett i det minste...)

 

hmm, kan hende RAID kontrolleren jeg har er noe mer hjernedød en de du testet.

eller at jeg skulle latt driveren bygge opp igjen RAIDet istedet for BIOSen.

SÅ lykkelig jeg gjorde deg på lørdag.

 

IDE/SATA/SCSI, kommer vel ann på hva det skal brukes til. får du SATA med hotswap, blir jeg nok mer fornøyd. du får en 8 kanals SATA kontroller. da kan du få en masse lagringsplass billig.

 

en disk på en kable som tryner

hmm, leste dette i en HOWTO for RAID i Linux, så jeg antok at SCSI var mer robust her. hvor sant det er vet jeg ikke.

 

 

interessant artikkel. håper du skriver flere.

 

morten

Lenke til kommentar

hva jeg har forstått:

SCSI har hatt taged command quening lenge, og muligheter til å be forskjellige disker om å gjøre forskjellige ting samtidig.

Jeg husker ikke alt, men jeg mener TCQ også gir deg muligheten til å sende flere kommandoer til èn disk, od disken cacher kommandoen. Mulig det var NCQ.

SATA har muligheter for dette også, til en hvis grad.

så dette vil også få SATA nærmere SCSI ytelse.

stemmer dette?

SATA skal kunne støtte dette, ja.

 

http://linux.yyz.us/sata/sata-status.html

 

Problemet er at "folkelig" SATA-hardware i liten grad støtter det.

er det SATA med 15K rotasjonshastighet?

hvis ikke vil SCSI fremdeles ha et overtak ved søking.

Jeg har ikke funnet noen disker utover Raptor-serien på 10k RPM. Jeg synes SCSI har et overtak så lenge man også får større disker. I skrivende stund er Raptor-diskene på maks 74GiB. Største fordelen SCSI har er nok likevel et godt rykte. Jeg tror ikke SATA er en reell konkurrent med det aller første.

#Nå er du ille ute uansett hvilken kontroller som dør uansett om det er en flott #SCSI-kontroller eller en billig SiI-brikke.

 

jeg tenkte mer på at din 6 år gamle kontroller tryner og viser seg å være properitær, og de ikke selges legnre. er det nytt nok skulle det bare være å få en tlsvarende en.

Det stemmer nok, men jeg tror dette problemet gjelder svært mye hardware.

ferdige maskiner. ja, er nok enig i det. jeg er bare så altfor vant med et veldig lite budsjett.... (f.eks, få tak i et $135 kabinett på ebay med dual 300W power og plass til 6 hotswap disker og håpe at det er nok strøm. bad! det var et nytt kabinett i det minste...)

Det høres litt ut som et mareritt, ja. Hvor mange arbeidstimer sløser man ikke bort på å spare noen små lapper. Min erfaring er at det ofte koster mer enn det smaker.

hmm, kan hende RAID kontrolleren jeg har er noe mer hjernedød en de du testet.

eller at jeg skulle latt driveren bygge opp igjen RAIDet istedet for BIOSen.

SÅ lykkelig jeg gjorde deg på lørdag.

De fleste UI-er for RAID-kontrollere er bare en frontend for BIOS og logikk som ligger i kontrolleren. Noen ganger så trenger kontrolleren bare et lite spark for å sette i gang automagien sin. Jeg har ikke testet pakkene Adaptec og LSI har for Linux, men listen over støttede operasjoner så saklig ut.

IDE/SATA/SCSI, kommer vel ann på hva det skal brukes til. får du SATA med hotswap, blir jeg nok mer fornøyd. du får en 8 kanals SATA kontroller. da kan du få en masse lagringsplass billig.

Jepp. Jeg tror aldri jeg vil bygge noe annet enn gutteromsservere med PATA i dag, men diskene er jo svært rimelige. SATA tipper jeg kommer sterkere fremover(noen år kanskje. mye bestemmes av blåruss.). Litt av problemet i dag er vel også dette at diskene som produseres ikke er av samme kvalitet som gjennomsnittet man finner av SCSI-disker. Tipper dette bedrer seg.

en disk på en kable som tryner

hmm, leste dette i en HOWTO for RAID i Linux, så jeg antok at SCSI var mer robust her. hvor sant det er vet jeg ikke.

Ikke jeg heller. Det er ett av tilfellene jeg er glad jeg ikke har erfaring fra. Det jeg synes flere bagatelliserer er viktigheten av filsystemet på toppen av arrayet ditt. Hva hjelper det med en proff RAID 10-løsning når raiserfs-super-alfa-10 gjør en lynkjapp selfkill i en venstresving?

interessant artikkel. håper du skriver flere.

Takk skal du ha. Det kommer nok flere ting sigende etterhvert.

Lenke til kommentar

Hei,

 

Vet ikke om han som skriver denne artikkelen leser dette, men.

 

Adaptec RAID controllere har et Command Line Interface (CLI):

http://support.dell.com/support/edocs/stor...ceg.htm#1122833

(Da jeg jobber der, finner jeg lettest dokumentation der: :D)

 

For å bruke dette CLI må man installere "afaapps"

afa-linux-app-A01.tar.gz inneholder afaapps-2.7-1.i386.rpm

 

alien afaapps-2.7-1.i386.rpm

Gjør om rpm filen til debian pakke om dere kjører ubuntu eller debian..

dpkg -i afaapps_2.7-2_i386.deb

for å installere...

 

 

I afacli kan du sjekke status på raidet, og følge med %en telle seg opp til 100% ferdig bygt RAID! Altså, ikke noen nødvendighet å starte om og sjekke BIOS.

 

 

afacli er kanon kult fordi man kan lage batch script som sjekker status på raidet og kan fikse mail, SMS etc. til admin om noe går feil. Legg scriptet i cron så har man overvåkning. Her er et eksempel skript:

 

#!/bin/sh
#
# Shell script for checking for raid problems
# by Kent Ziebell 10-April-2001
# Severely re-written by Henrik Levkowetz 18 Sep 2003
# Updated 30 Sep 2003
#
# Example cron entry:
#
#56 3,9,16 * * * /usr/local/src/raid/aacraidcheck
#
# Before cron runs the script the first time, you have to seed the status area 
# with a sample of good status. Do cd /var/state; mkdir raid; cd raid;, then 
# run the script once: /etc/cron.daily/aacraidcheck, and rename the resulting 
# current file to normal. 
# (You may want to check the content of the normal  file, to make sure it is OK, too).
#

#set -x

[email protected]
logfile=/var/log/messages
host=$(hostname)
user=$(whoami)

mailalert() {
  /usr/sbin/sendmail -f $mailto -t <<MSGEND
To: $mailto
From: $user@$host
Subject: Raid may be broken on $host

A change has occurred in the status of the raid disks on $host.
$*
 
---
$diff

$log
---

MSGEND
}

die() {
  echo $*
  exit 1
}

getstate() {
  cd /var/state/raid
  test -f normal || die "Missing $PWD/normal!"
  /usr/sbin/afacli <<-CMDEND &> /dev/null
     open afa0
     logfile start current
     container list
     disk list
     logfile end 
     exit
CMDEND
}


# ----------------------------------------------------------------------
#  CHECK 1
# 
#  Get the raid state and compare to normal
#

getstate

diff=$(/usr/bin/diff normal current)
curr=$(/bin/cat current)

if [ "$diff" != "" ]; then
  mailalert  "Here is the current report and the diff from last-known-good:"
#else
#   echo "The aacraid status is unchanged"
fi

#  CHECK 2
#
#  The next check is just looking for AAC: messages in $logfile
#
#  Raid error messages look something like the following:
#
#  AAC:ID(0:02:0); Selection Timeout [command:0x28]
#  AAC:Drive 0:2:0 returning error
#  AAC:ID(0:02:0) - drive failure (retries exhausted)
#  AAC:RAID5 Container 0 Drive 0:2:0 Failure
#  AAC:ID(0:02:0) [DC_Ioctl] DiskSpinControl: Drive spindown failure
#  AAC:RAID5 Failover Container 0 No Failover Assigned
#  AAC:Drive 0:2:0 offline on container 0:
#  AAC:RAID5 Failover Container 0 No Failover Assigned

diff=$(/bin/grep "AAC:" $logfile)
curr=""

if [ "$diff" != "" ]; then
  mailalert  "Here are error messages grep'ed from $logfile:"
#else
#   echo "No aacraid log entries found in $logfile."
fi

 

 

For ikke å gjøre dette til Adaptec Reklame:

LSI har endel monitorering og RAID management software også.

"megamon" etc. Som faktisk er enklere å bruke, men jeg er ikke sikker på om man kan skripte dem like lett..

Endret av Aditi
Lenke til kommentar

Meget bra og solid test, det er slik jeg liker det.

 

Jeg var selv overrasket over noen resultater for sw-RAID, en engelsk oversettelse hadde nok vært interessant for de som utvikler driverne i Linuxkjernen.

 

For å være sikker på om det er hw-RAID i RAID-kortet, kan en også se etter om det er I2O, disse har en egen prosessor ombord for å avlaste CPU. Riktignok har ikke alle hw-RAID denne løsningen.

Lenke til kommentar

Hei alle.

 

Denne artikkelen ble Slashdotted! :) Altså er dette noe verden faktisk lurer på og ikke bare dere.

 

Ang. CLI-er og andre UI-er: Jeg vet de finnes, men etter alt strevet Adaptec lot meg gå gjennom for å finne, og bygge driverene, så orket jeg ikke mer alien og bråk med deps. Jeg hadde ikke noe behov for å snakke mer med kontrolleren etter at jeg hadde satt opp arrayet i BIOS, men det er helt klart et poeng for de som skal ut å handle nye kontrollere. Synd testen ikke kom i engelsk utgave også(vi diskuterte dette, men valgte å gjøre den på norsk. litt dumt nå...). Det kunne vært en tankevekker for produsentene. Vi sitter ikke alle på RedHat, Mandrake, Fedora eller SuSE. En statisk linket tar.gz hadde holdt.

 

Ang. I2O: Jeg har lekt med en I2O-kontroller før. Det er ikke bare blomster. (/dev/i2o/hda var faktisk ikke støttet i mkinitrd. vi fikk utvikleren til å se på det.) Alle kontrollere i denne testen, bortsett fra SiI3114, har egen hardware for å avlaste CPU og OS. Arrayet er transparent for OS-et og brukes som èn disk.

 

Takker nok en gang for gode tilbakemeldinger!

Lenke til kommentar
  • 8 måneder senere...

Det hadde vært fint med informasjon i artikkelen om type RAID, og antall spindler .. Måtte se i forumet for å skjønne at det dreide seg om to speilede disker.

 

For øvrig er det min erfaring at ytelsesforskjellene blir langt større når man benytter striping og paritet. Ren speiling krever tross alt ingen prosessering.

 

Dermed hadde det vært svært interessant med en artikkel som omhandler RAID 0, 5 og/eller 1+0.

 

F.eks. opplever jeg at IBM (Adaptec) ServeRAID 6M eller 7M kan yte 20-30% av en Dell (LSI) PERC4/Di med 14 x 15.000 rpm spindler i RAID 1+0. Det vil si 40-60 MB/s mot 200 MB/s ved 8 samtidige sekvensielle lese-strømmer.

 

Ved bruk av flere kanaler, kontrollere eller spindler blir forskjellene enda større.

 

Hva rent software RAID angår så ser jeg at det går med 1 stk Xeon 3,0 GHz for å beregne RAID 5 paritet over 14 spindler med 180 MB/s sekvensiell skriv. Dette er målt i en Dell PowerEdge 6650 med 4 stk Xeon 3,0 GHz og Red Hat Enterpise Linux AS 3 Update 1. Målingen utgjorde da over 25% CPU bruk på alle 4 CPU'er. Det forbeholdes selvsagt at andre konfigurasjoner, drivere, kjerneversjoner etc vil kunne gi helt andre tall.

Endret av deviant
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...