Gå til innhold

BSD/UnixFreeBSD som erstatning for (Open)Solaris og Linux


Anbefalte innlegg

Skrevet

Etter FreeBSD 8 kom ut, går jeg med tanker om å smelte sammen 2 servere til én.

 

Den første kjører Linux, og er i hovedsak en avansert router, med webserver og mailserver i tillegg. Den andre kjører OpenSolaris, er filserver (ZFS, selvfølgelig) og deler filer med NFS, Samba. Den kjører også en subversion-server.

 

FreeBSD kan jo på papiret gjøre alt dette, men jeg er litt usikker på hvilke muligheter jeg har.

 

Det første jeg lurer på er om det er mulig å kjøre f.eks pfSense i et "jail"? Det ville jo gjort router-delen av det hele veldig enkelt. Og er ZFS-støtten nå på høyde med den i Solaris? Kjører en forholdsvis gammel versjon av OpenSolaris, så om den matcher det som fantes i ZFS versjon 6, er jeg fornøyd. (Vet at FreeBSD 8 har versjon 13, men tenker først og fremst på stabilitet og ytelse).

Videoannonse
Annonse
Skrevet (endret)

pf er "innebygd" i FreeBSD, se firewall kapitlet i håndboka. Kanskje det er bedre enn å kjøre pfSense? Eller du kan kjøre ipfw eller IPFITER, hvis du heller vil det.

 

Det er nok ikke mulig å kjøre pf inni et jail - pf må kjøres på selve ruteren (dvs. utenfor eventuelle jails), fordi den må ha tilgang til alle aktuelle interfaces, den må rute og den må nat'e. Det får ikke pf "lov" til i et jail.

Endret av tingo
Skrevet

Ah, lyder logisk. pf er greit nok det, tanken var å benytte seg av et oversiktlig og greit GUI for å sette den opp. Finnes kanskje noe tilsvarende som kan legges "oppå" FreeBSD?

Skrevet (endret)

jeg har lurt litt på å gjøre sånne ting med xen.

 

edit:

gui til pf: http://www.allard.nu/pfw/

 

Vet ikke om det bare fungerer på OpenBSD.

Dessuten fant jeg etter å ha prøvd det at pf.conf er enklere å bruke, når man får litt dreis på det.

Endret av Honest Jon
Skrevet

PF i FreeBSD går fint, det. Eneste forskjellen i forhold til OpenBSD er at ALTQ-støtte ikke finnes i default kjerne, det må kompileres inn. Altså en rekompilering av kjernen, med ALTQ-støtte. Hva ZFS angår, jeg kommer i hvert fall ikke til å bytte til FreeBSD på min filserver, der vil jeg fortsatt tviholde på Solaris 10.

Skrevet

Filserveren har lav belastning (hjemmeserver), og poenget er egentlig bare å redusere to bokser til én. Er avhengig av router/firewall-funksjonalitet, og der stiller vel ikke Solaris opp med så mye.

 

Landet igrunn på FreeBSD som det OSet som kan gjøre alt jeg trenger (Dvs, oppføre seg som NAT router/firewall, samt å "ta over" zpoolen fra Solarisboksen). Om det er best eller ikke er ikke så viktig, bare det er "godt nok".

 

Kikket litt på pfw, men det så litt halvveis ut i forhold til GUIene jeg har sett i pfSense og m0n0wall. Får kikke litt mer, kanskje jeg bare bruker configfila (gjør igrunn det på linux idag).

  • 3 uker senere...
  • 2 måneder senere...
Skrevet

..og etter kopiering av ca. 45GB av totalt 1TB eller så via Samba, så kræsjer kernelen (panic) pga. for lite minne.... trodde dette ikke var noen problemstilling lenger i 64-bit FreeBSD 8? Er 4GB RAM på boksen.

Skrevet

Er det 4 GB ledig RAM på boksen? Det er det zfs egentlig vil ha ...

kjører du 8.0-release, eller en ny 8.0-stable?

Hva slags hardware har du (hovedkort, disk-kontrollere etc)?

Skrevet

Gigabyte P45-hovedkort med Intel ICH9R-kontroller i AHCI-modus.

 

4GB total RAM, men kjører ikke stort annet enn dnsmasq, pf og samba.. så kan da ikke være såå mye i bruk.

 

Var 8.0-RELEASE, driver og kjører en oppgradering til 8-STABLE nå, får se om det hjelper..

Skrevet

Vel, dagens hovedkort kommer ofte med innebygd skjermkort som stjeler minne. På min zfs filserver ser det slik ut:

tingo@kg-f2$ dmesg | egrep memory\|ZFS
real memory  = 4294967296 (4096 MB)
avail memory = 3973873664 (3789 MB)
ZFS NOTICE: Prefetch is disabled by default if less than 4GB of RAM is present;
ZFS filesystem version 3
ZFS storage pool version 14

Jeg vet ikke hvor mye ekstra ytelse man får fra zfs prefetch, og om det ellers "gjør noe" at man ikke har 4 GB.

Skrevet

real memory  = 4294967296 (4096 MB)
avail memory = 4112019456 (3921 MB)

 

Har fått bort kræsjene med noen tuningparametre, men sliter voldsomt med ytelsen under Samba.

Samme problem som fyren i denne tråden. Har prøvd å stille på det meste, både i Samba og via sysctl, uten at det har gjort noen forskjell.

 

Har nok ytelse å ta av på diskene "lokalt", så det er ikke de som begrenser meg.

Skrevet

i Samba:

socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192

(og varianter av denne)

 

Gjorde ingen forskjell, dog.

 

Ga opp hele greia, satt opp et raid på linux isteden. Software-raid5 i linux virker dog rimelig tregt, så prøver raid10. Nå får jeg ihvertfall hastigheter jeg trives med (Samba: maxer ut gigabit nettverk på lesing, 75MB+/sec skriving).

 

Har dog, på maskinen med OpenSolaris som nevnt i første post, greid høyere hastighet enn dette - så jeg er litt skuffet over at FreeBSD og Linux ikke henger med. (FreeBSD ytelsesmessig, Linux featuremessig).

(Maskinene har samme hardware, unntatt diskene - men diskene i den nyeste maskinen er raskere)

 

Har kanskje blitt litt godt vant, frustrerende når man ikke får til det man vil. :)

  • 4 måneder senere...
Skrevet

 

Ga opp hele greia, satt opp et raid på linux isteden. Software-raid5 i linux virker dog rimelig tregt, så prøver raid10. Nå får jeg ihvertfall hastigheter jeg trives med (Samba: maxer ut gigabit nettverk på lesing, 75MB+/sec skriving).

 

 

litt offtopic, men får meget bra hastigheter på linux software raid5, størrelsesorden 300MB/s les/skriv over 4 spindler. så du har muligens noen driverissues, evt helt feil alignment.

Skrevet

Hva slags disker har du?

 

Jeg har prøvd masse tweaking med forskjellige alignments, og får ikke mer enn ~150MB/sec lesehastighet ut av diskene. Da i raid10. I raid5 får jeg en peak på ~80MB/sec, en "low" på <10MB/sec, og et snitt på under 25MB/sec (sekvensiell overføring). Fant også ut under min testing med ZFS at dette var et problem der også - hastigheten begynte høyt greit, men sank fort.

 

Ser ekstreme mengder med IOwait i raid5.

 

Har WD Caviar Green 1,5TB. Ser ikke samme problem med andre disker på samme hovedkort og dermed samme kontroller. testet med 5x gamle 500GB WD-disker, og hadde over 200MB/sec.

 

Er mildt sagt skuffet over 1,5TB-diskene. Litt googling har bekreftet at jeg ikke er alene om problemet.

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...