Gå til innhold

Anbefalte innlegg

Skrevet

Vil det si at alle klienter med big som startet i går ikke vil kunne sende til server. Hadde en som ble ferdig nå og den sendte ikke. Forsøkte å sende manuelt, men fikk bare feilmelding. Slettet derfor alt uten om config og fah6 og startet på nytt. Hvis det er slik jeg tror har det jo ingen hensikt å la eksisterende klienter kjøre seg ferdig?

Videoannonse
Annonse
Skrevet

Jeg ville latt de gjøre seg ferdig og sett situasjonen an imorgen.

 

Klienter som har ferdige WU'er, kan du kopiere hele fah-katalogen og så slette work-mappa, unitinfo og queue, for så å starte vanlig smp. I den kopierte mappa, kan du endre machineid i client.cfg, og dersom ting ordner seg, kjøre "fah6 -send all" Da kan du iallefall redde stumpene.

  • Liker 1
Skrevet

Det funker nok ikke før serveren(e) er restartet. Siden de står i Sverige, er det grunn til å tro at det skjer relativt tidlig på dagen i morgen. Forøvrig er det mulig å få 2684.

Skrevet (endret)

Tok vare på noen og forsøkte send i dag, 2 forsøk nedenfor men får bare denne feilmeldingen:

 

 

--- Opening Log file [september 5 06:55:10 UTC]

 

 

# Windows CPU Console Edition #################################################

###############################################################################

 

Folding@Home Client Version 6.34

 

http://folding.stanford.edu

 

###############################################################################

###############################################################################

 

Launch directory: C:\FAH

Executable: fah6

Arguments: -send all

 

[06:55:10] - Ask before connecting: No

[06:55:10] - User name: -alias- (Team 37651)

[06:55:10] - User ID: 130178D762CCE926

[06:55:10] - Machine ID: 2

[06:55:10]

[06:55:10] Loaded queue successfully.

[06:55:10] Attempting to return result(s) to server...

[06:55:10] Project: 6900 (Run 13, Clone 9, Gen 5)

[06:55:10] - Read packet limit of 540015616... Set to 524286976.

 

 

[06:55:10] + Attempting to send results [september 5 06:55:10 UTC]

[06:55:31] - Couldn't send HTTP request to server

[06:55:31] + Could not connect to Work Server (results)

[06:55:31] (130.237.232.141:8080)

[06:55:31] + Retrying using alternative port

[06:55:51] - Couldn't send HTTP request to server

[06:55:51] + Could not connect to Work Server (results)

[06:55:51] (130.237.232.141:80)

[06:55:51] - Error: Could not transmit unit 08 (completed September 4) to work server.

[06:55:51] Keeping unit 08 in queue.

[06:55:51] - Failed to send all units to server

 

Folding@Home Client Shutdown.

 

 

--- Opening Log file [september 5 06:56:21 UTC]

 

 

# Windows CPU Console Edition #################################################

###############################################################################

 

Folding@Home Client Version 6.34

 

http://folding.stanford.edu

 

###############################################################################

###############################################################################

 

Launch directory: C:\FAH

Executable: fah6

Arguments: -send 08

 

[06:56:21] - Ask before connecting: No

[06:56:21] - User name: -alias- (Team 37651)

[06:56:21] - User ID: 130178D762CCE926

[06:56:21] - Machine ID: 2

[06:56:21]

[06:56:21] Loaded queue successfully.

[06:56:21] Attempting to return result(s) to server...

[06:56:21] Project: 6900 (Run 13, Clone 9, Gen 5)

[06:56:21] - Read packet limit of 540015616... Set to 524286976.

 

 

[06:56:21] + Attempting to send results [september 5 06:56:21 UTC]

[06:56:41] - Couldn't send HTTP request to server

[06:56:41] + Could not connect to Work Server (results)

[06:56:41] (130.237.232.141:8080)

[06:56:41] + Retrying using alternative port

[06:57:02] - Couldn't send HTTP request to server

[06:57:02] + Could not connect to Work Server (results)

[06:57:02] (130.237.232.141:80)

[06:57:02] - Error: Could not transmit unit 08 (completed September 4) to work server.

[06:57:02] - Read packet limit of 540015616... Set to 524286976.

 

 

[06:57:02] + Attempting to send results [september 5 06:57:02 UTC]

[06:57:02] - Couldn't send HTTP request to server

[06:57:02] + Could not connect to Work Server (results)

[06:57:02] (130.237.165.141:8080)

[06:57:02] + Retrying using alternative port

[06:57:02] - Couldn't send HTTP request to server

[06:57:02] + Could not connect to Work Server (results)

[06:57:02] (130.237.165.141:80)

[06:57:02] Could not transmit unit 08 to Collection server; keeping in queue.

[06:57:02] - Failed to send unit 08 to server

 

Folding@Home Client Shutdown.

 

 

 

Slik det ser ut mistet jeg nok 4 eller 5 WUer i denne omgangen.

 

Edit: Leste litt på foldingforumet og fant at det eksisterer noe maskinvare vi bare kan drømme om. Lister opp her hva en har å folde med:

 

System 1:

CPU -> 8x X7560 @ 2.27GHz (128 Threads)

GPU -> n/a

OS -> Ubuntu 10.10 64bit

Other -> 992.14GiB (actually 2TB)

 

System 2:

CPU -> 8x X6550 @ 2.00GHz (128 Threads)

GPU -> n/a

OS -> Ubuntu 10.10 64bit

Other -> 504.90GiB

 

Link: http://foldingforum....hp?f=19&t=19521

 

Hver av disse riggene gir en credit på henholdsvis 500.000 og 600.000p ved P6903 som tar 1,03 og 0,87 dager å kjøre.

 

128 threads på en maskin (rigg) :thumbup:. Lurer på hva noe slikt bruker i strøm?

Endret av -alias-
Skrevet

Ser ikke ut som de har fått skikk på 130.237.232.141 enda. Lider fortsatt av samme syken som igår. Har akkurat prøvd å sende inn, men overføringen stopper etter noen sekunder. Ser også at andre har problemer.

Skrevet

Har nå totalt 6 stk. WUer som ikke er levert og det begynner nå å nærme seg en parodi. Sist jeg leverte var på lørdag. Heldigvis gjelder vel dette bare P6900 som jeg nå kun har en gående av. Ser på serverstat hos Stanford at den er aktiv og skal kunne motta igjen.

Skrevet

Har nå totalt 6 stk. WUer som ikke er levert og det begynner nå å nærme seg en parodi. Sist jeg leverte var på lørdag. Heldigvis gjelder vel dette bare P6900 som jeg nå kun har en gående av. Ser på serverstat hos Stanford at den er aktiv og skal kunne motta igjen.

 

Har kun en 6900 WU som ikke vil laste opp så jeg gjorde som ei57 sa ang sletting av work etc. og nå fikk jeg ned en 2684.

 

980X maskinen har nå fått sin fjerde bigbeta på rad, denne gangen en 6904 WU.

Skrevet

Et skjermkort som folder. PCen har en firekjerner CPU. Er det hensiktsmessig å angi affinitet til at den kjører på en kjerne eller har det ingenting å si? Hver gang den er ferdig med en WU må jeg angi affinitet på nytt. Det er ganske irriterendes. Kjører også en CPU klient og det samme skjer der.

 

Har W7

Skrevet

Nå ser det ut til at big-serveren igjen er oppe. Fikk lastet opp en og fikk ned en ny 6900. Det å ta kopi av hele fah-katalogen var kanskje en god ide, men det var kanskje ikke like lurt å endre machineID. Iallefall gikk den opplastingen i vasken. PPD-messig var det kanskje ikke noen katastrofe, siden den mest sannsynlig hadde passert bonusgrensa, men det ble et par dagers folding til ingen nytte.

Skrevet (endret)

Jeg klarte å sende opp 3 stk. P6900 nå så det ser ut som alt er i orden igjen. Jeg har da mistet 3 ditto, grunnet at jeg nok var for utålmodig, men også fordi 2 av dem kjørte under Ubuntu. Har dårlig erfaring der når man skal sjonglere med backupmapper, som regel ender det med at WU går tapt.

 

Nevnte vel at jeg har fått ned en P6904 som har tre dager igjen å kjøre. Slike enorme WUer gjør meg noe urolig, spesielt under Ubuntu som jeg ikke er helt "kompatibel" med ennå.

 

Edit: Og det virker som at jeg berget det meste av bonus på samtlige.

Endret av -alias-
Skrevet

Fikk sent min 6900 nå også men måtte stoppe klienten på 2600K maskinen for å få det til og som vanlig fungerte ikke ctrl-c så den startet fra null igjen. Mistet kun 6% som er lite i forhold til det andre her har mistet denne helgen.

Skrevet

Jeg har nesten alltid benyttet "kill -9 <processID>" i terminal og har alltid fungert. En litt enklere versjon er å høyreklikke fah6 i system monitor og velge kill der. Gjør for all del ikke det med Fahcore_a5. Det er det samme som rykk tilbake til start i monopol.

Skrevet (endret)

kill -9 <pid> innebærer vanligvis at prosessen(e) avsluttes "rått og brutalt", og du må nok da fortsette fra siste checkpoint.

kill <pid> og Ctrl-C (som skal være samme som kill -2 <pid>) gjør forhåpentligvis at fah6 "rydder opp" etter seg (dvs. fahcore bør avslutte pent og pyntelig) og en kan fortsette fra akkurat samme sted. Men la fah6 og core'ne få tid til å avslutte.

"Høyre-klikk og kill" i system monitor er sannsynligvis samme som kill <pid>.

 

Men jeg har ingen som helst erfaring med de forskjellige(?) "big" WU'ene, så kan være tilhørende fahcores ikke er så gode på å avslutte ryddig.

Men hadde ikke noen problemer med ctrl+c med "vanlig" smp når jeg kjørte den i vår (under openSuse, men jeg blir overrasket om det er forskjell på openSuse og Ubuntu på akkurat det).

Endret av HawP
Skrevet (endret)

Det er greit å drepe fah6 hardt og brutalt. Det sørger samtidig for å avslutte tilhørende fahcore. Checkpoints er med unntak av 100%, det eneste som skrives. Det er således ingen vits å stanse klienten når den runder 1,2 eller n%, men heller sjekke at checkpoint nylig er skrevet.

 

Ctrl-C fungerer utmerket i Windows, men siden minhund har problem i Linux, kan det tenkes at fahcore avsluttes før fah6.

Endret av ei57
  • Liker 1
Skrevet

Ubuntu på i7 980X stoppet i natt på 32% ferdig P6904 og jeg fryktet det verste, men foldingen startet normalt opp igjen...heldigvis! Tror jeg skal klokke den et knepp eller 2 ned når (hvis) den har gått seg ferdig.

Skrevet

Kjører med 4.6Ghz og det er nok grunnen ja, skal slippe meg ned 50MHz eller kanskje det kan hjelpe å øke Vcore ett knepp. Den står nå på 1.3975 (tror jeg det var). Under Windows så jeg at tempen lå på 72 - 74 Celsius, men under Ubuntu er den sikkert noe høyere siden strømforbruket fra veggen økte noe. Har ikke fått meg til å legge inn utils for å måle i Ubuntu ennå.

Skrevet

Leverte for tre timer siden en P6900 hvor 70% av tiden til deadline gjensto, men fikk kun godskrevet 7164p. Dvs. jeg fikk ingen bonus. Kanskje bonustelleren hos Stanford er ute av drift?

 

Loggen:

 

[13:40:54] Completed 247500 out of 250000 steps (99%)

[14:06:51] Completed 250000 out of 250000 steps (100%)

[14:07:04] DynamicWrapper: Finished Work Unit: sleep=10000

[14:07:14]

[14:07:14] Finished Work Unit:

[14:07:14] - Reading up to 52713120 from "work/wudata_06.trr": Read 52713120

[14:07:15] trr file hash check passed.

[14:07:15] - Reading up to 46991448 from "work/wudata_06.xtc": Read 46991448

[14:07:15] xtc file hash check passed.

[14:07:15] edr file hash check passed.

[14:07:15] logfile size: 243057

[14:07:15] Leaving Run

[14:07:18] - Writing 100115565 bytes of core data to disk...

[14:07:20] ... Done.

[14:07:36] - Shutting down core

[14:07:36]

[14:07:36] Folding@home Core Shutdown: FINISHED_UNIT

[14:07:40] CoreStatus = 64 (100)

[14:07:40] Unit 6 finished with 70 percent of time to deadline remaining.

[14:07:40] Updated performance fraction: 0.912905

[14:07:43] Sending work to server

[14:07:43] Project: 6900 (Run 22, Clone 1, Gen 36)

 

 

[14:07:43] + Attempting to send results [september 7 14:07:43 UTC]

[14:07:43] - Reading file work/wuresults_06.dat from core

[14:07:43] (Read 100115565 bytes from disk)

[14:07:43] Connecting to http://130.237.232.141:8080/

[14:13:17] Posted data.

[14:13:17] Initial: 0000; - Uploaded at ~292 kB/s

[14:13:17] - Averaged speed for that direction ~209 kB/s

[14:13:17] + Results successfully sent

[14:13:17] Thank you for your contribution to Folding@Home.

[14:13:17] + Number of Units Completed: 75

 

Skrevet

Jeg leverte en 6900 som jeg fikk bonus for men nå får jeg bare vanlige -smp WU'er av en eller annen grunn. Jeg bruker taggen: -bigadv -smp -verbostiy 9 på den maskinen.

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...