Gå til innhold

NVIDIA GeForce RTX 30xx tråden


Nizzen
Melding lagt til av Jarmo

Vennligst ikke ta AMD vs. Intel diskusjoner i denne tråden :)

Anbefalte innlegg

Skrevet
Betroz skrev (21 minutter siden):

Jeg har lagt ut 2 bencher av stock vs OC i SOTTR tråden. UV testing hjalp ikke ytelsen. Eneste den gjorde var å senke temps og lavere rpm på viftene.

La inn noen eks på UV og UV/OC du evt kan prøve i SOTTR-tråden. 

  • Liker 1
Videoannonse
Annonse
Skrevet
3 hours ago, Betroz said:

Jeg testet noen runder på samme banen, men fordet synes jeg DX12 gir mer stutter enn DX11. Jeg har tweaket Windows, og brukte DDU før jeg satt i 3080Ti kortet... Men fordet synes jeg DX11 er mer smooth.

Kanskje du hadde "future frame rendering" = on? DA kommer stuttering alright i DX12. Denne skal kun være på i DX 11, noe som er et must for DX11 skal yte bra.

  • Liker 1
Skrevet
20 minutes ago, Nizzen said:

Kanskje du hadde "future frame rendering" = on? DA kommer stuttering alright i DX12. Denne skal kun være på i DX 11, noe som er et must for DX11 skal yte bra.

Oops...ja den var fortsatt ON da jeg prøvde DX12 :blush:

Skrevet
19 minutes ago, Nizzen said:

Typisk noobs vettu 😂

Skylder på alderen jeg :p

Noe jeg la merke til også nå, var at i DX12 mode så klokker ikke skjermkortet seg like høyt som under DX11. 50 Mhz lavere. Er dette normalt?

Jeg ser med GPUz at på mitt TUF kort, så drar PCIe Slot power max 58W, og ~148W på hver av PCIe kablene. Jeg trodde man kunne få 75W fra PCIe slotten, noe som ville gitt meg ~375W tilgjengelig, men nei. PerfCap Reason står hele tida på Pwr, noe som er logisk med dette TUF kortet. Nå skjønner jeg hvorfor Strix og Suprim korta har 3 stk PCIe :)

 

Skrevet
8 minutes ago, BadCat said:

Det skal visst komme 5nm Ampere i andre halvår 2022..

Nei da kommer Ada Lovelace eller Hopper. Tror ikke vi ser nye gamer kort før 2023 jeg, selv om Nvidia lanserer dem innen utgangen av 2022.

Skrevet
14 hours ago, Betroz said:

Er dette normalt?

Du svarte deg selv, men ja det er normalt i den forstand at når du ikke har noe å gå på (perfcap) så må clocks reduseres

Skrevet
2 minutes ago, Mumriken said:

Du svarte deg selv, men ja det er normalt i den forstand at når du ikke har noe å gå på (perfcap) så må clocks reduseres

Tror du misforstod meg litt. Samme OC settings. Forskjellen var DX11 vs DX12 modus i Battlefield som resulterte i ~50 Mhz lavere frekvens.

Skrevet
14 hours ago, Betroz said:

Tror du misforstod meg litt. Samme OC settings. Forskjellen var DX11 vs DX12 modus i Battlefield som resulterte i ~50 Mhz lavere frekvens.

nei, jeg gjorde ikke det ;)
Veldig gode odds for at BF drar mer powah under dx12

 

Skrevet
Betroz skrev (43 minutter siden):

Tror du misforstod meg litt. Samme OC settings. Forskjellen var DX11 vs DX12 modus i Battlefield som resulterte i ~50 Mhz lavere frekvens.

Sannsynligvis bedre utnyttelse av GPUen i DX12, da går ytelsen opp, men klokkefrekvensen ned

Skrevet
8 hours ago, BadCat said:

Er det artig det der Tom Reidar? Kjøpte det for et par år siden, men har aldri kjørt det.

Jeg ble fort lei Tom Reidar og prøvde litt Tur'n te Frank istedet.

Skrevet (endret)

Selv om max fps går opp når jeg klokker TUF kortet til ~1950 MHz, så får jeg jevnere ytelse ved 1875 Mhz og 831mv. Trikset var å sørge for at kortet ikke overstiger 350W.

Hvis ryktene om at RTX 4090 får 450-500W TDP stemmer, så krever vel de korta 4 stk 8-pin kabler de da :D

 

Endret av Betroz
Typo
  • Hjerte 1
Skrevet
Betroz skrev (3 timer siden):

Selv om max fps går opp når jeg klokker TUF kortet til ~1950 MHz, så får jeg jevnere ytelse ved 1875 Mhz og 831mv. Trikset var å sørge for at kortet ikke overstiger 350W.

Hvis ryktene om at RTX 4090 får 450-500W TDP stemmer, så krever vel de korta 4 stk 8-pin kabler de da :D

 

3 x 8-pin skal holde til 525W, så de med 400-475W får nok 3, men tipper kort med 500W+ får 4 pin som standard om det ikke blir 2 x Nvidiaplugg istedet. 

Skrevet
Cowboystrekk skrev (1 minutt siden):

3 x 8-pin skal holde til 525W, så de med 400-475W får nok 3, men tipper kort med 500W+ får 4 pin som standard om det ikke blir 2 x Nvidiaplugg istedet. 

Spørs om ikke MDG forbyr alle fremtidige grafikk kort pga for høyt strømforbruk :rofl:

  • Liker 5
  • Hjerte 1

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...