Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Videoannonse
Annonse

Testen ble gjort med 1080ti, 2080 og Radeon VII, ikke 2080ti. Forskjellen er liten og merkes ikke i bruk. Videre blir det dumt å vise til tester i 1080p når 1440p er den nye normalen.

1440p er den nye normalen som blir likere og likere 1080p. Altså cpubound med et kraftig skjermkort. Helt riktig :)

 

Med 2080ti i sli, så er cpu i noen spill flaskehals i 4k tilogmed :D

 

Jeg får f.eks ca samme fps i 3440x1440 som i 4k i Battlefield V.

 

post-42975-0-23213400-1553293850_thumb.png

 

Nesten 20% lavere minimumsfps merkes godt når det er snakk om 81fps VS 98 fps.

 

Dette er med "lav" hastighet på minnet på Intel, sikkert bare for å være litt grei :p

 

Forskjellen er liten og merkes ikke i bruk

 

 

Høres ut som en som har Ryzen cpu (er)  :tease:

 

Best å være 100% gpubound, fordi da merker man ikkje forskjell :D

Endret av Nizzen
Lenke til kommentar

Nå må du slutte Nizzen. Du kan ikke bruke ditt bruksmønster som fasit for alle andre. Ja når man klokker livskiten ut av en 9900K med 4000+ på minne så vil det selvfølgelig være en forskjell mot en 2700X.

 

Som jeg linket til i artikkelen så vil noen som spiller på en 2700X få en så godt som like god ytelse i spill med et 2080 i 1440P som en med et 8700K.

 

Ja jeg har Ryzen, 3 av dem. Og Intel. Det har ingen ting med dette å gjøre. Jeg prøver bare å balansere dine meninger på at om man ikke følger din 1% av bruksmønster eller HW overklokking, så har man bare kjøpt søppel, noe som ikke stemmer.

  • Liker 6
Lenke til kommentar

Høh? man ha Intel CPU altså? Jeg trodde det bare var å skru på DLSS?  :rofl:

 

Enkelte ser neppe dette selv, men det er rimelig latterlig å grine over å miste (bokstavelig talt) ett par prosent fps fordi man valgte å spare flere tusenlapper (som kan brukes til bedre skjermkort f.eks.) ved å gå for en 2700X platform fremfor en 9900K. Og snur de seg rundt i neste øyeblikk og halverer fps på sitt 2080/Ti for å få RTX!?   :rofl: Da mister dere meg, var det ikke nettopp livsviktig å få beholde hver eneste fps man kan få? :p

 

Men OK, greit, et argument kunne jo vært at man kan få bedre grafikk med RTX effekter skrudd på. Og at det derfor er verdt det å ofre noen fps, vel, en haug med fps... For å få bedre grafikk altså... Det jeg ikke skjønner da, er hvorfor de ikke forstår at det er akkurat det man kan gjøre med DSR også? Man kan øke bildekvaliteten på bekostning av fps (i alle spill), og dermed spille på innstillinger der fps forskjellen mellom Intel og AMD CPU forsvinner, men man får bedre bildekvalitet. Man kan alltid flytte flaskehalsen over til GPU med DSR, selv om man "bare" har en 2700X til å drive sin 2080Ti... Om bedre bildekvalitet med godt spillbar fps ikke er et argument for 2700X, så må det jo nesten være et argument mot 2080Ti? For alle kan jo få 2080Ti nivå fps med et 2080, kanskje til og med 2060, det er jo bare å redusere grafikk innstillingene det...

 

Tolkningen av Techspot linken til mer-hw av enkelte her, er forøvrig også et kapitel for seg selv. Det er ett spill av de 12 der en del vil kunne merke forskjell i en blindtest (RE2, og det spørs om ikke det er noe som kan fikses med driver eller spill patch). Og ett spill der kanskje noen ganske få ville kunnet peke ut hvilken platform man spiller på, men da i hovedsak fordi man er på utkikk etter forskjellen.

 

Og igjen får jeg da altså følelsen av at om det ikke var for dobbelt moral, så ville vi nesten ikke hatt moral overhodet i denne tråden. :p "DLSS er kjempebra! Man ser bare forskjell, om man kikker etter!"... :p

Endret av Gabri3L
  • Liker 2
Lenke til kommentar

Høh? man ha Intel CPU altså? Jeg trodde det bare var å skru på DLSS?  :rofl:

 

Enkelte ser neppe dette selv, men det er rimelig latterlig å grine over å miste (bokstavelig talt) ett par prosent fps fordi man valgte å spare flere tusenlapper (som kan brukes til bedre skjermkort f.eks.) ved å gå for en 2700X platform fremfor en 9900K. Og snur de seg rundt i neste øyeblikk og halverer fps på sitt 2080/Ti for å få RTX!?   :rofl: Da mister dere meg, var det ikke nettopp livsviktig å få beholde hver eneste fps man kan få? :p

 

Men OK, greit, et argument kunne jo vært at man kan få bedre grafikk med RTX effekter skrudd på. Og at det derfor er verdt det å ofre noen fps, vel, en haug med fps... For å få bedre grafikk altså... Det jeg ikke skjønner da, er hvorfor de ikke forstår at det er akkurat det man kan gjøre med DSR også? Man kan øke bildekvaliteten på bekostning av fps (i alle spill), og dermed spille på innstillinger der fps forskjellen mellom Intel og AMD CPU forsvinner, men man får bedre bildekvalitet. Man kan alltid flytte flaskehalsen over til GPU med DSR, selv om man "bare" har en 2700X til å drive sin 2080Ti... Om bedre bildekvalitet med godt spillbar fps ikke er et argument for 2700X, så må det jo nesten være et argument mot 2080Ti? For alle kan jo få 2080Ti nivå fps med et 2080, kanskje til og med 2060, det er jo bare å redusere grafikk innstillingene det...

 

Tolkningen av Techspot linken til mer-hw av enkelte her, er forøvrig også et kapitel for seg selv. Det er ett spill av de 12 der en del vil kunne merke forskjell i en blindtest (RE2, og det spørs om ikke det er noe som kan fikses med driver eller spill patch). Og ett spill der kanskje noen ganske få ville kunnet peke ut hvilken platform man spiller på, men da i hovedsak fordi man er på utkikk etter forskjellen.

 

Og igjen får jeg da altså følelsen av at om det ikke var for dobbelt moral, så ville vi nesten ikke hatt moral overhodet i denne tråden. :p "DLSS er kjempebra! Man ser bare forskjell, om man kikker etter!"... :p

 

Rart du kjører 9900k med et RTX 2070 skjermkort selv :D

 

Godt du kjører stil  :green:

 

Når selv ikkje du har Ryzen, da vet man at det suger....

Endret av Nizzen
  • Liker 2
Lenke til kommentar

Rart du kjører 9900k med et RTX 2070 skjermkort selv :D

 

Godt du kjører stil  :green:

 

Når selv ikkje du har Ryzen, da vet man at det suger....

 

Nå er jo det rett og slett feil da, jeg har jo Ryzen, også. Du vet, slik du har Threadripper, også? Og RTX2070 kortet mitt står forøvrig i Ryzen maskinen med nettopp en 2700X. 9900K'en min står i maskinen med 1080Ti... Som jeg altså ikke gidder å bruke... Betyr det at 9900K suger det da? ;)

 

2070 kortet lever forøvrig på "lånt tid", vurderer kraftig å bytte det i et Radeon 7. Men mot normalt har jeg klart å holde meg i skinnet foreløpig. :p

  • Liker 1
Lenke til kommentar

Kan komme med min erfaring fra litt "tregere" spill som MH:W, Civ 6, Hitman 2, SotTR, og Metro.

5930k på 4.5GHz mot en 1700X på 4.02 er en marginal seier til Ryzen ytelsesmessig

Alle spillene har litt høyere framerate, spesielt Hitman 2 (som nå er kjørbart på simulation quality "best").

Ryzen er også vesentlig kaldere i drift, vil anslå at det skiller minst 150W mellom de to plattformene.

 

Merk at dette er to eldre CPU-er, primært fordi jeg ikke gidder å betale 1800 kr ekstra for en 2700X, og i hvertfall ikke 3500 kr ekstra for en 9900k.

Anslår jeg kan selge denne CPU-en i sommer for noe rundt 1000-1500, og så oppgradere til en Zen 2, om det viser seg å være en oppgradering

  • Liker 1
Lenke til kommentar

 

 

Men Nizzemann da!

 

Du linker jo til tester gjort på forhistoriske oppløsninger  :rofl:

 

Hvem finner på å kjøpe et skermkort til 12000kr for å bruke det på en 1000kr skjerm? :D

 

Og 1440p er også ganske gammeldags.

 

Et godt og relevant bruksscenario for et 2080 Ti er 3440x1440p eller 4K.

Og kjører man slike oppløsninger er 2080 Ti perfekt sammen med en 2700X, og således gjør man også lurt i å spare en tusenlapp eller mer når man ikke ville sett noen forskjell på Intel og AMD :)

 

Ja, jeg har jo Intel selv fordi jeg liker entrådet ytelse da jeg bruker Photoshop, After Effects og DaVinci Resolve. Men skulle jeg kun gamet kunne jeg like gjerne kjørt Ryzen på 4K da det ikke har noe å si da :)

  • Liker 1
Lenke til kommentar

Men Nizzemann da!

 

Du linker jo til tester gjort på forhistoriske oppløsninger  :rofl:

 

Hvem finner på å kjøpe et skermkort til 12000kr for å bruke det på en 1000kr skjerm? :D

 

Og 1440p er også ganske gammeldags.

 

Et godt og relevant bruksscenario for et 2080 Ti er 3440x1440p eller 4K.

Og kjører man slike oppløsninger er 2080 Ti perfekt sammen med en 2700X, og således gjør man også lurt i å spare en tusenlapp eller mer når man ikke ville sett noen forskjell på Intel og AMD :)

 

Ja, jeg har jo Intel selv fordi jeg liker entrådet ytelse da jeg bruker Photoshop, After Effects og DaVinci Resolve. Men skulle jeg kun gamet kunne jeg like gjerne kjørt Ryzen på 4K da det ikke har noe å si da :)

 

1080p 240hz monitor er det jo en del som bruker.

 

Du hadde ikkje spillt på 4k, da du mest sansynlig hadde kjørt 60hz :p

 

Ja det er viktig å ha gpu som flaskehals om man har Ryzen. Det er helt sant  :tease:

Endret av Nizzen
Lenke til kommentar

1080p 240hz monitor er det jo en del som bruker.

 

Du hadde ikkje spillt på 4k, da du mest sansynlig hadde kjørt 60hz :p

 

Ja det er viktig å ha gpu som flaskehals om man har Ryzen. Det er helt sant  :tease:

 

 

Meeeh, 1080p@240 er vel ikke så veldig utbredt blant gamere. Er vel heller de som spiller kompetitivt i spill som CS:GO og lignende som bruker slike skjermer. Og da blir det en selvfølgelig å velge Intel, helt klart :)

Men dette betyr også at de som virkelig har god grunn til å velge Intel er de som tiltrekkes av øyesår (aliasing) :p

 

Selv kjører jeg en Samsung Quantum Dot 3440x1440 @ 120Hz, og er ganske fornøyd men skulle gjerne hatt enda litt høyere oppløsning da det fortsatt er litt aliasing på denne oppløsningen. 5120x2160 hadde vært perfekt :)

 

De som er opptatt av bildekvalitet med andre ord, vil alltid være GPU bound, og da er det ett fett om man velger Intel eller AMD.

 

EDIT: "Du hadde ikkje spillt på 4k, da du mest sansynlig hadde kjørt 60hz".

 

Ikke riktig. 4K med 120 og 144hz har kommet for å bli :)

https://www.elkjop.no/product/data/pc-skjerm/16769/acer-nitro-xv273kp-27-gamingskjerm-sort-rod?scid=Pricecomparison2989_5_False

Endret av IceBlitz
  • Liker 2
Lenke til kommentar

Det høres nøyaktig ut som i den andre youtube filmen.

Når jeg tar øret inntil PSU bråker den mest, men det er lyd fra GPU også slik som på youtube videoen du linket til.

Så da er det PSUen som er problemet eller? Trodde SuperNOVA G3 skulle være bra eller er det bare at man kan være uheldig?

 

Noen med erfaring på åpent kjøp/angrerett hos Netonet?

Hvis jeg skal ha ny PSU trenger jeg ikke noe større enn 750w til mitt bruk? Så da er kanskje denne et godt alternativ, samme som Martin har bare 750w, tilbud i helga også:

https://www.komplett.no/product/846438/datautstyr/pc-komponenter/stroemforsyning/enheter/corsair-rm750i-750w-psu#

 

 

EDIT: Bestilte den fra komplett. Si ifra hvis jeg bør avbestille.

Nå har jeg bytta ut og returnerer Supernova G3 strømforsyningen.

Innstallerte Corsair RM750i, ingen nevneverdig coilwhine nå, så da var det strømforsyningen.

Tusen takk for hjelpen. Nå er jeg virkelig fornøyd med både støy, temp og stabil ytelse på MSI RTX 2080Ti Trio.

Lenke til kommentar

Nå har jeg bytta ut og returnerer Supernova G3 strømforsyningen.

Innstallerte Corsair RM750i, ingen nevneverdig coilwhine nå, så da var det strømforsyningen.

Tusen takk for hjelpen. Nå er jeg virkelig fornøyd med både støy, temp og stabil ytelse på MSI RTX 2080Ti Trio.

Veldig godt å høre! <3

Lenke til kommentar

Takk for tips om denne!

Synd den ikke har Gsync. Ellers foretrekker jeg at alt av skjermer over 2560x1440 har en x-sync range helt ned til 30. Den fungerer riktignok ned til 35 på freesync.

 

Er det LFC som forårsaker brightness flicker tro?

 

on to the Acer Nitro XV273KP:

 

The good:

- almost half the price of other 4k 144hz monitors currently available on the market and only some 'small' compromises for such a huge saving

- no active cooling fan, silent.

- Freesync implementation is indistinguishable from Gsync

- Use either Nvidia or AMD GPUs and still get adaptive refresh rate

- LFC (low framerate compensation) means the Freesync range is practically lower than the claimed 40hz (if the game is running at 35fps the screen will run at 70hz and show the frame twice - in fact it does this for anything lower than half the maximum refresh rate)

- great colour coverage, a significant improvement over the 27inch 1440p 144hz AU optronics of last gens bread and butter gsync/freesync monitors

- anti-glare coating is not overly grainy

- finally can take advantage of the GPU! COD BO4 runs 80-100fps in multiplayer, Rust runs around 60-100fps, doom runs at a solid 120fps - all at 4k with maxed settings

 

The bad:

- Freesync not an option above 120hz (makes 144hz mode practically useless for gaming)

- no local dimming means it dosn't have the same brightness, contrast and HDR certification that other full local array dimming displays have (the $2,500 g-sync ultimate monitors)

- Its 'only' HDR400 (but has a peak brightness of 500nits)

- Cant use Freesync and HDR at the same time

- 144hz mode (or 120hz 10-bit 4:4:4) requires two DP cables and blocks the use of HDR and/or Freesync

- I am yet to get 98hz 10-bit 4:4:4 to work, this would require a custom resolution as its not presented by EDID (but technically possible over DP1.4)

- achieving more than 60fps in AAA titles is hard... games like shadow of the tomb raider run at 40fps average at 4k, games like farcry5 run around 65fps average at 4k so the VALUE of this monitor vs a cheaper 60hz 4k with Freesync is diminished (if you get such a vibrant monitor to compare it against of course, because refresh inst all that counts)

 

The ugly:

- HDR is a pain in the ass on a PC. Changing from HDR to SDR is a bit tedious and you do really frequently need to swap if you want to take advantage of HDR semi-regularly... Additionally if you change resolution while HDCP is in effect (netflix app for example) then your monitor will be set to black until the application is closed... handy... Further more the issue is that running HDR mode makes SDR content look very washed out and dull (note: fucking trash) and even when using a true HDR application the issue is that most applications dont 'line up' well with the peak brightness of this monitor. Games such as FarCry 5 'support' HDR however there is no preset for HDR400 or HDR600 and no way to manually dial the peak brightness value of the display (400nits) and as such the result is a very washy looking image that looks noticeably worse than SDR... HOWEVER titles such as Shadow of the Tomb raider DO allow you to tune the peak brightness! so no matter the flavor of HDR you can dial it in to get the right overall brightness range for your display, but it really dosnt look much better than SDR, if at all...

https://forums.overclockers.com.au/posts/18101579/

TLDR;

120hz 4k gsync SDR monitor with 130% sRBG colour coverage, low input latency with decent pixel response times and low ghosting for HALF the price of the 144hz 4k gsync HDR10 monitors on the market today

 

 

Samt en kjekk liste for de som lurer på hvordan HDR ser ut på monitor markedet.

https://displayhdr.org/certified-products/

 

Hadde vært digg med en 42" 21:9 Ultrawide Curved (5120 x 2160) med 120Hz og Gsync ned til 30.

 

NB! Og for de som opplever sort skjerm med boot på DP1.3 og DP1.4:

https://www.nvidia.com/object/nv-uefi-update-x64.html

 

post-38451-0-27046700-1553415184_thumb.jpg

 

Endret av Theo343
  • Liker 1
Lenke til kommentar

Synd den ikke har Gsync. Ellers foretrekker jeg at alt av skjermer over 2560x1440 har en x-sync range helt ned til 30. Den fungerer riktignok ned til 35 på freesync.

 

 

Den står iallefall på lista over "g-sync compatible" Som en av de få utvalgte skjermene med freesync :) Den må klare visse krav for å komme med der.

 

Ellers så skal jeg ikkje ha denne skjermen, men synes den er spennende. Som hovedskjerm, så kommer jeg ikkje til å bytte ut Ultrawide med det første.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...