Gå til innhold

HawP

Medlemmer
  • Innlegg

    1 099
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av HawP

  1. Imidlertid returnerer FAHClient kun "BAD_WORK_UNIT" for hver WU den laster ned, og nekter å begynne på noen av dem. Jeg blir gal!

    Sjekk at det er den proprietære nvidia-driveren som brukes.

    sudo lspci -k

    lister opp hvilken driver som brukes og hvilke(n) som er tilgjengelig(e).

     

    Eksempel for mitt 210-kort som ikke brukes av Linux (brukes med kvm som passthrough inn til Windows-vm):

     

    06:00.0 VGA compatible controller: NVIDIA Corporation GT218 [GeForce 210] (rev a2)

    Subsystem: ASUSTeK Computer Inc. Device 848e

    Kernel driver in use: pci-stub

    Kernel modules: nvidiafb, nouveau

  2. Har en gigabit ruter, men tenker du da på nettverkskortet? I såfall er jeg litt usikker, men den skal da kunne levere gigabit den og vel?

    [...]

    Er nok ikke noe problem med PCen som overfører, men siden maskinen som er serveren er litt gammel kan det vel være gammelt nettverkskort, men skal det ha noe å si?

     

    Du får ikke høyere hastighet enn "det tregeste leddet", dvs. er ett av nettverkskorta bare 100Mbit får du ikke høyere hastighet enn det kortet klarer.

     

    For nettverkskort av typen Realtek 8111/8168 (pci-express; veldig vanlig på hovedkort med "onbaord gigabit") har vanligvis driveren r8169 blitt brukt, denne driveren har (tidligere) hatt en tendens til å ofte ikke fungere spesielt bra med 8111/8168 (mulig det har blitt bedre med en av de nyere kernelene?). Hvis r8169 er i bruk for ditt nettverkskort (sudo lspci -k) kan du sjekke om du finner r8168 driveren for din distro og prøve den.

  3. core 15 kommer hos meg, Fann jeg hater løgnerne hos pg. Skulle vert ferdig i nov 2013, jaja kanskje det var en skrive leif :rofl:

    Antar at det nok "bare" var veldig dårlig kommunikasjon fra PGs side.

     

    Prosjekter som begynte på core15 må fullføres på core15, hvis ikke blir det uten vitenskapelig nytte. Og når de er fullført kommer antakelig an på når analysen av prosjektes returnerte WUer tilsier at de ikke har behov for å få beregnet flere WUer?

     

    (kort oppsummering etter hukommelsen av en forklaring jeg leste på folding forumet)

  4. Siden du hadde forsøkt opensuse; der finnes "Medlemskap i Windows-domene" i Yast, under "Nettverkstjenester". Du fant kanskje den men fikk DNS_ERROR... da også? Høres ut som om dns problemer/at den ikke finner domene-kontrolleren i dns.

     

    Jeg antar at oppstartsscript til de fleste "vanlige" distroene setter opp resolv.conf under "oppstart" av nettverket, så hvis din resolve.conf er tom vil jeg tro at du ikke har fått satt opp nettverket skikkelig, evt. har valgt å ikke bruke dhcp?

  5. Det hender at jeg får ned standard smp, men jeg minnes ikke om det er forskjellige servere for opp og ned.

     

    Mine tre smp-foldere har nå kun work server oppgitt, collection server står til 0.0.0.0.

     

    Mener å huske at jeg leste på folding forumet, i forbindelse med at serveren til et/flere av smp-prosjektene var nede rundt takk-for-innhøstinga-festen, at vanligvis leveres ferdig wu tilbake til work server, men at enkelte prosjekter (typisk GPU-prosjekter høres det da ut som?) også har en backup collection server å levere til i tilfelle work server ikke svarer. Fakta eller teori, jeg vet ikke.

  6. Hvis jeg setter inn et dedikert skjermkort i maskinen - kan jeg da tildele dette til den virtuelle maskinen som folder og la den "misbruke" skjermkortet?

    Tror ikke Hyper-V har støtte for "pci passthrough" (men jeg er ikke sikker) som du måtte brukt for å få vm'en til å tro at skjermkortet satt "fysisk" i vm'en. I tillegg måtte både hovedkort (chipset og bios) og cpu støttet iommu/Vt-d/amd-vi.

  7. Litt sent svar ser jeg, men allikevel: hvis du seinere skulle ønske du kunne gjøre pci-passthrough, pass på å skaff et hovedkort med iommu (AMD-Vi), f.eks. asus sabertooth 990FX 2.0 eller Gigabyte GA-990FXA-UD5. Har begge og de funker fin-fint til virtualisering.

     

    Eh... Hyper-V, ja, den støtter kanskje ikke pci-passthrough uansett?

  8. Passthrough eller RDM (raw disk mapping) er nok eneste praktiske løsning for "hobbybruk".

     

    Av disse er RDM enklest å ta i bruk, du kjører en kommando for å lage "virtuelle" vmdk-filer som kun inneholder info om de fysiske diskene. Disse vmdk filene legger du så til guest på vanlig måte.

    Guest vil da se diskene som om du hadde "fysisk" koplet de til guest.

     

    Passthrough krever at et kontrollerkort (onboard kan fungere, kommer an på hvordan det er "wired") dedikeres til diskene som skal passthrough'es, og i tillegg støttet hw: cpu, chipset og bios/uefi med iommu (AMD-Vi/Intel Vt-d).

    • Liker 1
  9. Er nok Windows Phone Microsoft er ute på redningstokt for, tipper jeg. Ved å ordne slik at .NET også kan brukes til å lage æpper for Android og iOS håper de nok at utviklerne da samtidig også lager en versjon for WP siden det da antakelig er relativt kjapt gjort?

  10. Huh? :huh:

    Slik jeg forstod "som vist" var: følg punktene i skjermbildet fra FAHControl, hvor punkt 4 er å legge inn 0.0.0.0/0 i feltet for "Allow" for å kople til uten å måtte oppgi passord (står 127.0.0.1 der som standard, 0.0.0.0/0 tillater da alle ip adr. å kople til uten passord).

     

    For ordens skyld: Remote Access fanen har to "sett" med "Allow" og "Deny", de øverste er for ip'er som får/ikke får kople til MED passord, mens de nederste "Allow" og "Deny" er ip'er som får/ikke får kople til UTEN passord.

    Og "Allow" overstyrer "Deny".

     

    (Ser at Sn1ken nå har endret litt på teksten :) )

  11. Siste bildet får jeg opp "forbidden" på dersom jeg klikker.

     

    I det første bildet under "remote"-delen står det "som vist", men det er egentlig ikke vist noe som klart definerer hva som skal stå der. Er det IP til "hovedmaskinen" som skal skrives inn, eller IPen til maskinen som folder? Evt. noe helt annet?

    Med "som vist" menes at du skriver det nøyaktig som det står, hvilket vil gi tilgang uten passord uansett ip-adr. på "monitor-pc". Alternativet er å skrive inn ip adr til "monitor-pc".

     

    Bruker ikke HFM selv, nøyer meg med FAHControl for å styre flere pc'er. :)

  12. by VijayPande » Fri Nov 14, 2014 4:29 pm

     

    PS Q: Why doesn't the maxwell bug affect other codes.

    A: We use OpenCL to keep FAH cross platform (e.g. FAH runs on NVIDIA and ATI GPUs) and the Maxwell bug is in NVIDIA's OpenCL driver, not their CUDA driver. We can make a CUDA version of OpenMM for FAH once CUDA supports a key need for OpenMM –– JIT support. The ETA for JIT support in NVIDIA is under NDA, so we can't talk about it, but you are free to ask them yourself

    Hentet fra folding forum

  13. HawP: Hvorfor bruke ESXi 5.1, egentlig?

     

     

    Mest fordi jeg er lat, ikke så viktig for meg lenger å alltid måtte ha nyeste versjoner så lenge det funker greit nok til min bruk :p. Dessuten ble den installert før 5.5 u2 var kommet (så vidt jeg vet). Ikke sikker på om jeg egentlig trenger noe av det nye i 5.5 ennå heller...

     

    Og heller ikke sikker på om .vib-fila jeg bruker for å kunne få status fra Perc 6-kortet funker i 5.5, men alt av drivere/providere til esxi 5 er kanskje 5.x ?

  14. Det hovedkortet så veldig kjent ut :p Kjører det sammen med en xeon E3 siden jeg ville være sikker på å få fungerende Vt-d, selv om jeg i ettertid fant ut at det ikke var nødvendig for å få "passthrough" av disker inn til filserver-vm'en.

     

    Men merk med det supermicro kortet (kanskje alle?) at selv om det er (micro-) ATX størrelse, og som sådan passer i et standard atx midi-tower (som typisk brukes for whitebox), så sitter "frontpanel"-pinnene ikke der de sitter på desktop kort, dvs. montert i et stående kabinett er FP-pins på dette da øverst mot fronten. Så er "front-kablene" litt korte (siden de ofte "sitter" nederst og bare skal rekke til nederst på hk) kan det være litt utfordring å få det til.

     

    Edit: Merk også at noen supermicro-kort har dual nic med to forskjellige kontrollere, hvor et er i210AT som er støttet av esxi (for esxi 5.1 må driverne legges inn i etterkant eller med customizer) og et i217LM som ikke støttes (uten videre, hacks finnes visst).

  15. Proshop.no og multicom.no har også noen Supermicro-kort. For socket 1150 med IPMI vil du ha kort med modellnavn som begynner på X10 og ender på -F. Mener å huske fra da jeg i sommer så etter et supermicro kort til min esxi "whitebox" at de fleste som var aktuelle for meg krevde EEC ram, men jeg kan jo huske feil.

  16. Kjøpte 4 x Kingston ValueRAM hukommelse - 8 GB - DIMM 240-pin (KVR16E11/8) (altså totalt 32GB) til mitt SUPERMICRO MBD-X10SLH-F, fungerer tilsynelatende helt fint (aner ikke engang om de står på en evt. kompabilitetsliste :p )

     

    En ting å være klar over ang. esxi (også 5.5 u2 antar jeg), er at så vidt jeg vet støttes ikke raid fra "integrert raidkontroller" (dvs. på hovedkortet - aka fakeraid). Må til med "the real deal" for å få raid i esxi (så vidt jeg vet). Eller bommer jeg litt?

  17. Alle monner drar. Takk for bidraget HawP. Det blir fort en dobling av dine poeng fremover :)

    Folder ikke under samme navn som forum-nicket lenger, har i flere år nå i stedet foldet under HP&H. Angrer nå litt på at jeg bytta folde-navn den gangen, og husker ikke lenger hvorfor jeg bytta.

     

    Men vm-serverne har blitt oppgradert siden sist vinter/vår, og de to gir nå ca. dobbelt så mye cpu-ppd tilsammen som de 4 cpu'ene jeg foldet med tidligere. :)

     

    Har også et R7 240 liggende jeg antakelig setter i en gammel pc dersom (når?) jeg trenger litt mer varme. Har ennå til gode å kjøpe hw kun for folding, og har hittil i stedet bare foldet med det jeg har kjøpt av andre årsaker.

×
×
  • Opprett ny...