Gå til innhold

Anbefalte innlegg

Videoannonse
Annonse

Her går det tregt nå, hvorfor ble forrige post dobbel?

 

Kanskje jeg klikket to ganger på send?

 

PS Problemet er kanskje ikke noe problem siden jeg tydeligvis får levert prosjekter og krediteres.

 

Nei, nå d.. vi i det tullet. Plutselig ble det orange igjen. Og nå er det det også påen annen maskin. Har neppe noen betydning.

Endret av kjellms
Lenke til kommentar
Skjønner ikke helt hva Everest prøver å fortelle meg her.

Amperen er nå helt på jordet.

Tja der var det mye rart gitt. Hvem er Everest? Han bruker strømstyrek som angivelse på effekt. HVis du bare ser bort fra noen rarae ting så står det vel at det går 61,16A x 1,18V = 72,17 W det er jo ikke så langt fra det målte. Øverst står det neon viftehastigheter og i midten en rekke spenninger. Sikkert på en av dine nye rigger siden verdiene er så lave.

 

Men de spenningene som er angitt på dimm og GPU kan jo ikke være alle, summene blir jo altfor små, gjør de ikke? Nei det kan ikke være alle tall?

Lenke til kommentar

Da har jeg fått opp gpu2 under linux (via wine). Ikke noe enorm ytelse på 250-kortet, men det ser ikke ut til at bigadv'en reduseres noe i det hele tatt så da lar jeg den bare gå slik den er for nå (neste steg er å få satt opp autostart). Kortet blir ikke varmt (økte til litt over 60C), så det er mulig det hadde gått ann å skvise noe mer ut av det, men så ikke noen umiddelbare muligheter i nvidia-settings, men hvis jeg snubler over noe så kan det hende jeg leker meg litt. Så lenge jeg møter tidsfristen så skal det få snurre og gå i det tempoet det har nå.

Lenke til kommentar

wine er ikke vm, så selve driveren ligger under linux. Man overklokker jo ved å endre instillinger til driveren.

 

Jeg klarte selvsagt ikke å dy meg så jeg begynte å lete med en gang og fant en måte å "hente fram" overklokkingsinstillinger i nvidia-settings. Men nå er jeg litt forvirret. Det var ikke mye å hente, dvs den har forskjellige instillinger for 2D og 3D og 3D instillingene var allerede makset. I alle tilfeller økte jeg 2D klokkene for å se om det får noe utfall. Hvis ikke har jeg kommet over et lite program som heter nvclock som skal kunne brukes til å overklokke nvidiakort, men har ikke fått sett noe på det enda. For alt jeg vet så er det ikke noe mer å hente ut av dette kortet.

Lenke til kommentar

Nei, der er ikke stort å hente i nVidiacotrollene.

Mitt inntrykk er selv om andre mener noe annet (siden det stort sett) er samme GPUmotorer som går igjen) at det er stor forskjell på hva kortene tåler*. Mine XFX 250GTS 738/1836/1101 er allerede klokket fra XFX tåler kun litt på shader men så kommer 1010x prosjektene, så jeg lar være. Det siste jeg fikk 680/1620/999 (1GB minne) er alstå lavere klokket og gir vesentlig lavere produksjon, skal vel prøve å klokke shader på den etterhvert.

 

*I forhold til mine 8800GS f eks.(Black Dog Ed).

 

ED.: Der fikk jeg meg en overraskelse, på HFM.NET viste 8800GSkortet på Homeserveren 6745 PPD på et eller annet p3xxx. Litt mye synes jeg sjekket Fahmon på serveren, da viste den 6821PPD på et nytt prosjekt p 3469. Dette må være særdeles lettgjorte prosjekter. Kortet er heller ikke klokket opp fra default 680/1674/799.

Endret av kjellms
Lenke til kommentar

Har et GTS250 fra TwinTech og er klokket omtrent som ditt (738/1782/1101). Det ser ikke ut til at det er mulig å klokke shader i nvidia-settings selv når man har enablet overklokkingne (kun gpu/mem-klokker)

 

Men jeg har alerede klart å drepe en WU ved å være litt for iverig; startet prosessen på nytt før core hadde avsluttet. Jeg vet jo at det er fyfy, men sånn går det når iveren tar overhånd.

 

Det ser ut til at prosessen ikke er spesielt enkelt å avslutte. FahCore henger på full kapasitet på 2 kjerner lenge etter at man har avsluttet programmet. Litt dumt siden kill ofte tuller det til.

Lenke til kommentar

Ja, jeg har aldri funnet noe slikt i Nvidia.

 

Kjetil

 

Se det forrige innlegget mitt nå går det uklokkede GSkortet med mer enn 1000PPD mer enn de kortene jeg skiftet til nyere driver, et av de 8800GS kortene har nå samme p 3469 og viser 5700PPD mens det med gammel driver viser 6800PPD !

 

Og der har jeg skikkelig gammel driver 178.24

 

Komisk: den nedre er altså 8800GS mens den i midten er 250GTS.

Edit noen t seinere: Nå har det samme fått et mer normalt prosjekt p 5768 og viser nå kun 4300PPD.

post-75424-1266015116_thumb.jpg

Endret av kjellms
Lenke til kommentar

Skal du klokke disse anbefaler jeg nibitor (windows only, kanskje?), lagre original bios (viktig!), endre clocks (og evt volt på de kortene det er mulig, for de som tør), lagre og flash vha. nvflash på en bootbar usbpinne (med oppdatert bios ofc).

 

Forøvrig kan det være lurt å modde en og en bios av gangen, og ikke flashe samme til alle kort av samme type, for de KAN ha forskjellig minne elns, og da må det blindflashes tilbake. Det kan være knotete om du ikke har kontroll på programmet ;)

 

Flashet mine 8800gt til 750/1850/1000 (noen kort på 950, sikkert qimonda der...), det funker knall so far.

Lenke til kommentar

CUDA 2.3CUDA Driver: NVIDIA Driver 190.38 for Windows XP 32-bit with CUDA SupportCUDA 2.2CUDA Driver: NVIDIA Driver for Windows XP 32-bit 185.85

 

Hvorfor er det slik i Get cuda (Cuda Zone) (GB) at det står CUDA support på CUDA2.3 mens det ikke står det på 2.2 Hva er forskjellen?

 

Og på den amerikanske sida kan det nå se ut som bare 2.3 er tilgjengelig. Synes det er mye rot med å finne fram i Cuda syeteme og de bygger stadig om på hjemmesidene. Noen ganger finner man hele lista lett og andre ganger finner man bare de siste versjonenen.

Endret av kjellms
Lenke til kommentar

Jeg fant også ut at det er stor forskjell på europeiske og amerikanske nettsidene, men uansett så endte jeg opp med å bruke diverse linker på forum. Det er irriterende å vite at ting er tilgjengelig, men nvidia ikke lar det finne en link til det.

 

Når det gjelder drivere, så har jeg lest at man må ikke oppgradere til 185 eller 190 når man skal kjøre FaH (mulig dette gjelder primært linux?). Et sted leste jeg at CUDA3.0 har 195 og at den skulle fungere vel så bra som 180 (som ikke lenger er å få lastet ned direkte fra nvidia), så jeg endte opp med å laste ned cudadriver3.0 fra nvidiforumet (beta enda). Først lastet jeg også ned cuda-toolkit3.0-64bit, men fant ut at man må ha 32-bit til wraperen til wine, lastet så ned 3.0 32-bit og fant ut at wraperen selvsagt kun støtter 2.0. Så jeg har cudadriver3.0 (med 195-driveren) lastet ned fra nvida-forumet, og cuda-toolkit2.0-32bit lastet ned via link på foldingforum.

 

Jeg får sinnsykt dårlig ytelse på GPU (snakker under 1000PPD her), men så lenge det kommer 100% i tillegg til bigadv uten noe reduksjon i denne stresser jeg ikke med det. Det er mulig jeg kan leke litt med prioriteter og få GPU2 til å stjele litt mer CPU, men problemet da er å finne balansen slik at man får mer ut av GPU enn man taper på bigadv. Noe som er vanskelig pga bonusen på bigadv.

Lenke til kommentar

Trenger du toolkit pga Linux? Eller er det fordi du skal mekke av andre grunner. <1000PPD er vel for dårlig. Er det virkelig så stor forskjell til Linux gpufolding?

 

Jeg trodde jo slik at var det CUDA så skulle de være kompatible uansett. Kjetil skrev jo noen poster tilbake at 190.36 skulle gi bedre produksjon. Og da jeg gikk inn og lette var det ingen tvil om at det var Cuda med mange nyere enn 190.38, mulig jeg da også kom til den britiske. Hvor akkurat 190.38 står i den linja med CUDA support som jeg linket til. Det er mulig der er såpass hårfine forskjeller at noen virker bra til FAH og andre ikke. I begynnelsen var det jo mange drivere som ikke virket og store forskjeller. Men jeg trodde det hadde jevnet seg ut da vi passerte (175?-)180 ca.

 

Men da jeg plukket ut 190.62 istedefor 190.38 til mine XP-32bit maskiner la jeg ikke merke til at man helst ikke skulle tatt nyere. Men jeg husker ikke hvilken side jeg var på og mulig det er 2.2.

 

Derimot er jeg sikker på at jeg var på GB-sida da jeg skulle ha driver til XP-64bit og da toppet liste på 190.38, og nå ser jeg faktisk at produksjonen på de kortene faktisk har gått ned, det var jo rart.

 

Men 178.24 på Home Serveren bytter jeg altså ikke ut! Før jeg må mener jeg.

 

Ennå mer "komikk" Nå har det nye GTS 250-kortet fått p3470 og da setter det klar bunnrekord ca 3600 (se linje 2) på denne. På p3469 hadde altså 8800GS 6800PPD, det må jo være stor forskjell på prosjekter og WUer. Tredje linje er nå samme 8800GS på Homeserveren, nå er den også på bunn med p 10103, at de prosjekten var tunge visste vi jo.

post-75424-1266056003_thumb.jpg

Endret av kjellms
Lenke til kommentar

joda, 1000PPD er "alt for lavt", men alternativet er å stjele cpuresurser fra bigadv.

 

Grunne til toolkitet er at noen har laget en fin cuda-wraper for wine, som får wine (som leter etter windowsdrivere) til å se driverene i linux som om de er for windows. Og det er nok bare for linux at 185 og 190 ikke fungerer som sikkert har noe med wraperen å gjøre.

 

Det kan også hende at det er kombinasjonen 3.0/2.0 som gjør at det går litt tregt. Det eneste jeg tenker jeg skal gjøre for å teste er å stoppe bigadven litt og se om GPU2 speeder opp. Dersom den ikke speeder opp kan det hende jeg går tilbake til 180 på driveren.

 

Men som sagt; selvom det er veldig lav PPD så er det unasett +1000PPD på denne maskina med svært lite arbeide, og lite temp-økning.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...