Megern
-
Innlegg
1 027 -
Ble med
-
Besøkte siden sist
Innholdstype
Profiler
Forum
Hendelser
Blogger
Om forumet
Innlegg skrevet av Megern
-
-
Eller å gi seg vis man får artifacts (grafikkfeil),maskinen fryser eller restarter.
Jeg pleier alltid å hoppe et steg tilbake når det gjelder 24/7 fra maks klokk.
-
Men hvilken temperatur er det jeg skal se på? Bruker Everest, og da har jeg jo temperatur GPU, GPU Diode, GPU Minne. Har lagt merke til at GPU Diode er den som er varmeste. Den ligger på ca. 65 grader mens GPU å GPU Minne er på ca. 55-60 grader. (er veldig varmt ute og på rommet (25 grader) for tiden)
GPU-doide skal du se på. GTX kortene er designet for å kjøre 85-90 grader. Noe som mange ser som varmt. GTX tåler faktisk mer også, men fra nvidia er kjernen designet for ca 85-90 grader.
-
Vil tro at temperaturen på forskjellige kort bare er litt forskjellige. Har ikke så mye med produsent å gjøre. Dette fordi kjølingen er lik på alle kort. Har club 3d 8800GTX selv, kjører på 64-67 grader load.
-
Den ene kjernen klarer ikke hastigheten. Derfor må du sette opp spenningen, og det resulterer i høyere temp. Så det er så enkelt at den kjerne 0 holder deg igjen.
-
Produsent har ingen ting å si. Minnet på kortene har heller ikke mye å si. Vis du kombinerer 8800GTS 320 og 8800GTS 640 så blir automatisk 640 amputert til 320. Samme med fabrikkoverklokkede kort. To like grafikk-prosessorer som er klokket forskjellig eller minnet. Feks 500 mhz på den ene kjernen og 550 på den andre. Vil den med 550 klokket ned til 500, det samme gjelder minnet frekvens. Det er altså viktig å ha samme grafikk prosessor. Altså to "like" kort. De trenger ikke være helt like, men de må være i samme serie. 7900GT og 7900GT går fint sammen. 7800GT og 7900GT går derimot ikke fint sammen.
-
Bare for å "beskytte" fruktkake litt. Så er jeg enig med at man ikke skal komme med noen artikler som nvidia har skrevet om nvidia produkter som beste bevis. Synes man skal prøve å finne en mer nøytral kilde.
-
Man kan få artifacts, men det er vanskeligere siden klokken blir stilt i intervaller. Det vil da si at den hopper opp en del mhz hver gang. Dette gjør det vanskeligere å få artifacts og lettere med at ting henger seg.
-
*Pirkemodus*
Det heter Intel enhanced speed-step (EIST) og ikke cool'n'quiet som er for amd. Det er ikke bare positivt vis du leter etter en maks klokk, eller skal validere cpu-z eller skal benche litt, men det er så lite at det ikke er merkbart. Personelig ser jeg denne saken som en positiv ting fordi: Mindre strøm bruk og mindre varme
-
-
-
-
Det er ikke et varme problem. Det er fordi kortet er klokket for høyt av fabrikken. Klokk den ned et hakk på memory og core så burde artifactene forsvinne. Sett det ned 20-30 mhz på core og 50-100 på memory. Bare for å teste, du kan eventuelt fin pusse på det senere. Mange av ultra kortene er desverre ustabile.
Hvis kortet ikke klarer de klokkefrekvensene som er satt fra fabrikk, er dette gyldig RMA-grunnlag. Du skal ikke måtte klokke ned kortet for å få det til å fungere tilfredsstillende.
Jeg vet da det, men det er mest sannsynelig dette. Ultra XXX har noen ville klokke frekvenser så jeg antar at det skyldes dette.
-
Det er ikke et varme problem. Det er fordi kortet er klokket for høyt av fabrikken. Klokk den ned et hakk på memory og core så burde artifactene forsvinne. Sett det ned 20-30 mhz på core og 50-100 på memory. Bare for å teste, du kan eventuelt fin pusse på det senere. Mange av ultra kortene er desverre ustabile.
-
Du kan laste ned Rivatuner her. Du kan se temperaturer i en graf med rivatuner. Prøv også de nyeste driverene. Dette kan du prøve først siden vis det er dette som skaper problemene så er det det letteste alternativet.
Divere finner du HER
Som det står i post 1 har jeg nyeste driverne allerede. Men akkurat nå har jeg mye verre problemer, så det her må vel bare vente litt... ( https://www.diskusjon.no/index.php?showtopic=779197&hl= ). Takk for innspill så langt.
Nå er alle andre problem tatt hand om, men dette problemet er her enda. Jeg har lastet ned og kjører RivaTuner, den viser en "core temperature" på 120C når jeg spiller. Er det for høyt? Jeg får aldri disse grafikkfeilene i noe annet enn spill (og temperaturen i f.eks. windows ligger ganske mye lavere på ca 85C).
Dette høres rett og slett j... høyt ut. Hva kan jeg gjøre? Tror det er 3-4 bra vifter i maskina fra før av, tviler vel egentlig på at det er plass til flere. Jeg har en shuttle.
120 er veldig høyt. Rett før kortet tar kvelden. Prøv å fjerne støv fra det.
-
Ja ja... det er alltid unntak. Men en det er også en pentium da, de tåler en del. Ser at jeg dreit meg litt ut, fordi jeg mente hovedsakelig c2d, det skulle jeg ha nevnt.
-
Tror ikke prosessoren blir direkte skadet av 70 grader, men da synker levetiden en del. Du kan også ende opp med en ustabil prosessor vis den er for varm.
-
Er ikke v-sync bare sånn at f.eks bokser står oppå hverandre i stedenfor i løse luften? Ting står på rett plass liksom?
Har ati kort selv, og har ikke på v-sync i flere spill uten problemer.
V-Sync gjør sånn at fps ikke overstiger skjermens oppdaterings frekvens. Et eksempel. En skjerm med 60Hz oppdaterings frekvens kjører da maskinen 60 fps med v-sync på.
Men hvorfor står det ofte da i spill at vsync kan gi dårligere ytelse? Mener de da at fpsen synker, men med vilje?
Det har hendt med meg at jeg har fått veldig dårlig ytelse med v-sync på ja. Dette var med gamle dataen min. Skal du bruke v-sync så burde du ha en grei maskin.
Edit: Grunnen til at v-sync blir brukt er får å unngå "tearing" i spill. Vis du snur deg fort i et spill med 150 fps så kan man lett se tearing(eller, jeg kan )
-
-
Er ikke v-sync bare sånn at f.eks bokser står oppå hverandre i stedenfor i løse luften? Ting står på rett plass liksom?
Har ati kort selv, og har ikke på v-sync i flere spill uten problemer.
V-Sync gjør sånn at fps ikke overstiger skjermens oppdaterings frekvens. Et eksempel. En skjerm med 60Hz oppdaterings frekvens kjører da maskinen 60 fps med v-sync på.
-
Det er sagt at nvidia skal komme med en ny serie ved jule tider i år. Eller mer rundt der 8 serien ble sluppet i fjor.
-
Er ikke sikker men kanskje det var fordi 100ogørten personer hadde ikke klart å styre seg og posta i workloggen . Antar at den ble sletta og at det kommer en ny. Veit at det også går an å flytte postene eller slette dem, men det er sikkert lettere å lage en ny.
-
Hvilke version av rivatuner har du. Du trenger 2.01 for 8800 kortene.
-
-
Det raskeste blir med en multilier på 8. Dette fordi minnet vil kjøre på en høyere hastighet, 400 (800 effektivt pga ddr, som betyr dual data rate, noe som betyr at den sender ut to "biter" informasjon pr klokke syklus). Høyere fsb vil få systemet til å jobbe jevnt over raskere.
GPU vs minne
i Skjermkort
Skrevet
En kraftigere GPU er bedre enn mer minne i mid range. Fordi at et kort som 8600GT ikke klarer å bruke 512MB minne uansett, og derfor er et 8600GTS 256 bedre og raskere. 8600GT kan kanskje klare seg bedre på større oppløsninger (1600x1200++) og AA og AF aktivert, men dette klarer ingen av de mid-range kortene bra uansett hvor mye minnet.