Gå til innhold

Varj

Medlemmer
  • Innlegg

    552
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Varj

  1. Vel, det vet jeg ikke sikkert. Jeg antar at fargene blir feil, slik som trådstarter antagelig har opplevd. Lyden kan vi holde utenfor, lite trolig at den påvirkes.

     

    Det høres ut som du er helt overbevist om at enten er bildet perfekt eller så blir skjermen svart. Klarer ikke helt å se hvilket grunnlag du har for dette. Kanskje du kan forklare?

     

    Du vil ikke få "fargefeil" alla lysere/mørkere/feilaktig fargekode, men helt utfall av den aktuelle pixelen.

     

    Så du har 3 moduser:

     

    1) Perfekt.

    2) Masse "glitter" av manglende pixler, helt åpenbart å se. Eksempelbilder er nevnt i link over.

    3) Ikke bilde.

     

    For korte strekk er det så og si umulig å få noe annet enn perfekt så lenge kabelen ikke er fysisk skadet.

    For lengre strekk bør man velge en som er sertifisert for den aktuelle lengden, gjerne en billig kina-kabel fra bluejeanscable.

  2. 1Gbit har ingen problemer med streaming av 1080p, det går faktisk helt fint via 100Mbit også.

     

    Jeg bruker også samba/cifs mot et linux raid5 (riktignok xfs, men detaljer), og det har aldri ført til hakking.

     

    Svært snålt at det går greit med lokale filer, jeg ville prøvd NFS, da enkelte har hatt mer hell med det ytelsesmessig.

  3. Greit å vite hva du skal bruke den til, ellers blir det vanskelig å svare på spørsmålet.

     

    Raid5 er en god allrounder, bra på sekvensiell skriv og les, også godkjent på random les, men svært dårlig på random skriv.

    I tillegg har raid5 et stort ytelsestap når det har røket en disk.

     

    Raid10, har som du nevner, ikke like god utnyttelse av plass, men høyere grad av sikkerhet, og bra ytelse over hele fjøla.

    Mister ikke ytelse i samme grad dersom det har røket en disk.

  4. RDM (raw device mapping) på sata disker er ikke supportert, men jeg har lest om folk som har fått det til å fungere.

     

    Dersom du ønsker å beholde mdraidet fra ubuntu, må du derimot gi vm'en hele disk-kontrolleren, men dette krever vt-d støtte på hovedkort, samt at du har et kontrollerkort som ikke er for sært.

    • Liker 1
  5. Men kva for nokre krav har du for å ha masse virtuelle maskiner? Trenger du verkeleg ein hauge med virtuelle maskiner som køyrer forskjellig kernel? Kva med å bruke jails/zones heller?

     

    ZFS med dedup trenger ram, men du kan også hjelpe på med å bruke ein SSD disk til cache og ha 4K block sizes istadenfor 512.

     

    Mange av mine "lokale" tjenester kunne jeg helt klart konsolidert, og dermed spart minne, men det er ofte langt mer praktisk/behagelig med en server per tjeneste iforhold til sikkerhet og administrasjon. Rett og slett en kostnad jeg er villig til å ta.

     

    I tillegg er jeg en av de (mange) hvor jobb og hobby overlapper, så jeg kjører en god del enterprise software i test/lab.

  6. Har sett på litt forskjellige type hovedkort, problemet mitt er et i5 / i7 cpuer ikke støtter ECC Minne som jeg har forstått er veldig fordelaktig for en filserver. Da står valget mellom en AMD løsning eller Intel Xenon som støtter ECC. Hvorav jeg føler meg mest trygg på Intel, spesiellt med tanke på ESXi passthrough.

     

    Kjører endel virtualiserte maskiner i dag. Og det er som du skriver alltid minnet som blir en begresning. Tror nok jeg kommer til å få behov for mer en 24Gb minne på sikt. En kraftig maskin som dette vil uansett kunne gjøre veldig mye, og kjipt hvis minne skulle være den begrensende faktoren.

     

    Etter litt lesing på nettet skal det være mulig med Virtuell HTPC med passthroug skjermkort. Men dette er jo ikke støttet fra VMvware ESXi offesielt, så her virker det som en bare må prøve seg litt frem. Noen grafikkkort virker, mens andre gjør ikke. En annen ting du må være obs på er at alt minne til en Virtuell Maskin må være "reservert"(ikke deles med andre Virtuelle maskiner) når du kjører passthroug.

     

    http://communities.vmware.com/message/1754453#1754453

     

     

    Ellers har jeg satt mitt prosjektet litt på vent, da jeg nylig har kjøpt meg leilighet med tilhørende utgiftsposter :)

     

     

    Jeg ser argumentet for ECC, og det er litt bittert å velge AMD når man da går glipp av nehalem og svært velfungerende hyperthreading, selv om man gjerne får et par cores ekstra til en billig penge.

     

    Irriterende at man ikke både kan få en perfekt og billig løsning ^^

     

    Har ny leilighet og utgifter selv i sommer, så får se om det evt blir worklog prosjekt til høsten.

  7. Jeg vurderer også et ZFS oppsett til å erstatt min nåværende filserver(Core Duo E6600 og 2x3Ware 9550SX-12port(PCI-X) som begynner å dra på årene.

     

    Ser på å kombinere dette med virtualisering og tenker på å kjøre ESXi i bunn, med passthrough av HBA SAS(disk kontrollerene) til OS'et som skal kjøre ZFS.

     

    Leker også med tanken på å innstalere et grafikkkort sammen med USB å kjøre passthrough til et gjeste VM med eksempelvis Windows 7. For å så kjøpe en USB\HDMI CAT6 extender ut til TV'en i stuen :) Dette blir på mange måter en superkraftig terminal. Ser på noen forum at det har vært vellykkede forsøk på dette.

     

    Her er oppsettet jeg vurderer:

     

    Nextron.no(à pris er uten mva):

    X8DTH-6F Supermicro motherboard X8DTH-6F - Dual Xeon 56xx, 8xSASII, IPMI 1 4606,- 5757,-

    AOC-USAS2-L8I Supermicro UIO SAS controller with RAID LSI SAS 2008 2 1016,- 2540,-

     

     

    Komplett.no:

    Intel Xeon™ E5620 2,4GHz LGA 1366, 12MB, 4,8 GT/sec, without FAN (4-core) 2 2995,- 6000,-

    Crucial DDR3 1333MHz ECC, 12GB KIT 3x 4GB, CL9Kit , 240pin 2 1519,- 3038,-

    Chieftec Nitro Series BPS-1200 1200W PSU 1 1598,- 1598,-

    Samsung SpinPoint F4EG 2TB 5400RPM HD204UI, 32MB Cache, 8.9ms,"EcoGreen F4" 10 550,- 5500,-

    SAS Cable Internal mini-SAS (SFF-8087) to (SFF-8087), 50cm 6 299,- 1794,-

     

    Ebay.com:

    NORCO RPC-4224 4U Rackmount 24 Hot-Swappable SATA/SAS Drive Bays 1 3500 4375,-

     

     

    Problemet er bare at det er så forbanna dyrt :) Vurderer å vente litt, Intel har vel kanskje noen Xenon modeller kommende, samt prisene vil vel bli presset når AMD kommer med sine 16 kjerners CPU'er.

     

    http://blog.zorinaq.com/?e=10

    http://hardforum.com/showthread.php?t=1607493

    http://napp-it.org/napp-it/all-in-one/index_en.html

    http://www.servethehome.com/howto-flash-supermicro-x8si6f-lsi-sas-2008-controller-lsi-firmware/

    http://www.servethehome.com/configure-passthrough-vmdirectpath-vmware-esxi-raid-hba-usb-drive/

     

    Jeg sitter og spekulerer i nesten eksakt det samme, og stopper også pga prisen.

     

    http://www.vm-help.com/esx40i/esx40_vmdirectpath_whitebox_HCL.php

     

    Her listes dog noen langt langt billigere (og vt-d fungerende) hovedkort opp, som muliggjør en i7 single socket løsning som evt kan spare noen tusenlapper. Erfaringsmessig sliter jeg med minne før cpu, og selv de billige hk'ene der støtter ganske rikelig med minne (24G).

     

    Virtuell HTPC med passthrough skjermkort er også noe jeg har snust på, men har du sett noen success historier?

  8. heh 1/4 pris: Om sett litt bedre har sett jeg satte om setup så kan scale velding bra og har veldig rask speed.

    Come again?

     

    edit: Det er i all hovedsak kabinett og PSU det er spart inn på i listen jeg satte opp kontra din, samt unødvendig SSD og minnekapasitet. Jeg ser ikke hvordan en NAS som kjører et rent NAS-OS skal ha bruk for mer enn 2 GB minne (eller for den saks skyld en SSD)?

     

    "Overflødig" minne blir av fornuftige OS brukt som disk (read) cache, så det kan være flott å ha mengder med dette til overs.

     

    Når det gjelder SSD er det selvsagt ikke noe poeng for NAS OS'et, men dette kan du bruke som write cache, da den i motsetning til minne tåler strømtap.

     

    Om dette er verdt det eller ikke, avhenger da av hva slags båndbredde du har ut av boksen.

  9. du må sette vt-bit i bios for 64bit funksjonalitet.

     

    du må også ha et fornuftig nettverksoppsett, tunga skal være rett i munnen om du kjører fysisk hardware -> workstation -> esxi -> vm. det er dog ikke spesielt vanskelig så lenge du ser forskjellen mellom bridged og nat i workstation.

  10. Du har et web-gui, men vSphere klienten er også gratis, det er virtual center som koster kroner.

    (Du kan peke vSphere klienten direkte mot esx serveren istedenfor å bruke vcenter, noe mindre funksjonalitet, men fungerer fint.)

     

    Når det gjelder ram, på esx kan du sette hvor mye service konsollet skal få, med esxi er jeg ikke helt sikker.

    Uansett kan du bare tildele minne fritt, vmware klarer fint å håndtere at du deler ut mer enn den har, med visse triks og balooning (gitt at du har vmware tools installert på hver enkelt vm.)

×
×
  • Opprett ny...