Jump to content
Nizzen

NVIDIA GeForce RTX 30xx tråden

Jarmo

Vennligst ikke ta AMD vs. Intel diskusjoner i denne tråden :)

Message added by Jarmo

Recommended Posts

Just now, Simkin said:

Til riktig pris så går de unna på et blunk. På en time nå har jeg 4 interesserte. Ja, blir uten kort et par uker men overlever det. 

Hva legger du det ut for?

Share this post


Link to post
Sarasin skrev (4 minutter siden):

Disse kortene med ferdig vannkjølingsløsninger - når skjermkortet ikke "brukes", vil viftene da stå stille? Si for eksempel når kortet holder under 55 grader? For i bruk, må jo viftene gå, men når pcen bare står og ser pen ut, skal den ikke lage lyd heller ;)


Jeg kjenner ikke til dem med egne vannkjølere ferdig montert fra fabrikk, men med mitt 2080 TI kort med kraken x72 koblet til så er skjermkortet aldri mer en 40\45 grader under spilling
Idle ligger det på 27\30 grader (Alt etter hvor varmt\kaldt det er i rommet)

Viftene går, men de høres ikke. Heller ikke under spilling

Share this post


Link to post
Sarasin skrev (10 minutter siden):

Ok, så jeg kan aktivere det på 3080-kortet, greit nok. Men vil det faktisk fungere på skjerm og TV? Det handler vel ikke bare om kortet her?

Du må ha HDMI 2.1 eller displayport om det skal funke. Tver mer displayport er ekstremt sjelden og displayet må ha støtte for VRR. HDMI 2.1 er vell og ekstremt sjelden pr nå men øker bra framover. 

Share this post


Link to post
4 minutes ago, Cowboystrekk said:

Du må ha HDMI 2.1 eller displayport om det skal funke. Tver mer displayport er ekstremt sjelden og displayet må ha støtte for VRR. HDMI 2.1 er vell og ekstremt sjelden pr nå men øker bra framover. 

Etter en smule intens googling, har jeg kommet frem til følgende:

MSI hevder skjermen er G-sync-compatible, men nVidia har ikke listet den. Den har DP 1.2 + HDMI 1.4 (!)

TVen har naturligvis kun HDMI 2.0.

Såååå... Hva mener vi da? Er jeg låst til AMD for å få brukt AS/VRR/Freesync? På begge to?

Share this post


Link to post
scuderia skrev (11 minutter siden):

Ikke så mye skulle man tro men med RTX IO så kan det faktisk ha endel å si.. Vi får se når testene kommer ut ;)

 

I noen få scenarioer gir 5700XT med 4.0 noen prosent bedre ytelse enn 3.0. 3080 og 3090 som er over 50% raskere enn 5700XT vil utnytte 4.0 i større grad, men tester jeg tar lest viser at det avhenger veldig av type spill, grafikkmotor etc. I enkelte tester yter PCIe 2.0 like bra som 3.0, i andre er forskjeller betydelig. Nvidia har neppe lagt til 4.0 som en gimmick, i enkelte spill er jeg overbevist om at det gir noen prosent løft ut ufra funnene med 5700XT. Du har noen få unntak hvor forskjellen er betydelig idag og, men kan ha noe med at man kjører ssd på 4.0 i tillegg:

pcie_8.png

Edited by Cowboystrekk

Share this post


Link to post
Sarasin skrev (1 minutt siden):

Etter en smule intens googling, har jeg kommet frem til følgende:

MSI hevder skjermen er G-sync-compatible, men nVidia har ikke listet den. Den har DP 1.2 + HDMI 1.4 (!)

TVen har naturligvis kun HDMI 2.0.

Såååå... Hva mener vi da? Er jeg låst til AMD for å få brukt AS/VRR/Freesync? På begge to?

På TVen er du låst til AMD ja, på skjermen kan du aktivere g-sync komp manuelt, det funker sannsynligvis bra. 

Edited by Cowboystrekk
  • Like 1

Share this post


Link to post
1 minute ago, Sarasin said:

Etter en smule intens googling, har jeg kommet frem til følgende:

MSI hevder skjermen er G-sync-compatible, men nVidia har ikke listet den. Den har DP 1.2 + HDMI 1.4 (!)

TVen har naturligvis kun HDMI 2.0.

Såååå... Hva mener vi da? Er jeg låst til AMD for å få brukt AS/VRR/Freesync? På begge to?

Hvis den står at den er g-sync compatible, så har nvidia godkjent den. Altså du er good to go. Selv ikke-godkjente pleier å funke helt flott :)

Share this post


Link to post
Just now, Nizzen said:

Hvis den står at den er g-sync compatible, så har nvidia godkjent den. Altså du er good to go. Selv ikke-godkjente pleier å funke helt flott :)

For å oppklare den rotete setningen min; på MSI sine sider hevder de at den er G-Sync-compatible etter egen testing med 2080++, mens på nVidia sine sider er den ikke listet som godkjent :)

Share this post


Link to post
Sarasin skrev (1 minutt siden):

Flott - takk for oppklarende svar :) Da blir det bare spill som alltid vil kunne levere 60 fps i 1440p / 4k - altså sofaspill :p

Tror du skal lete lenge etter spill som ikke kjører i 2560x1440 med 60 fps låst på et 3080 om ytelsen er i nærheten av det Nvidia har sagt

  • Like 1

Share this post


Link to post

En ting jeg merker er at Nvidia har endret hele prisstrukturen i toppen.

3080 virker å være ett godt priset toppkort, og det absolutt beste kortet for folk flest.

3090 virker å være sykt priset, for de som har råd.
MEN, jeg har aldri sett så mange tredjeparts-varianter av ett hvis-du-har-nok-penger-kort før. Virker som 3090 blir en test på hva markedet er villig til å betale.

Nvidia later også som at 2080 TI ikke finnes i mange av artiklene. F.eks DigitalFoundery sin video sammenligner 2080 FE med 3080 FE. Mens jeg er mye mer interessert i 2080 TI vs 3080..

  • Innsiktsfullt 1

Share this post


Link to post
1 minute ago, Sarasin said:

Flott - takk for oppklarende svar :) Da blir det bare spill som alltid vil kunne levere 60 fps i 1440p / 4k - altså sofaspill :p

Ah... Tenkte du hadde hdmi 2,1 på tv. 

Men du kan bruke nvidia fastsync på tv som fungerer veldig bra i mangel på adaptiv sync

Share this post


Link to post

Dagens regnestykke for å få godfølelsen som 2080ti eier:

Ett 2080ti har kostet ca 5-6 kroner per dag i 2 år. Billig!
Selge ett 2080ti for ca 4500kr.

8000-4500kr = 3500kr.

Oppgradering fra RTX 2080ti til RTX 3080 koster 3500kr. Billig :D 

  • Like 2

Share this post


Link to post
Nizzen skrev (3 minutter siden):

Dagens regnestykke for å få godfølelsen som 2080ti eier:

Ett 2080ti har kostet ca 5-6 kroner per dag i 2 år. Billig!
Selge ett 2080ti for ca 4500kr.

8000-4500kr = 3500kr.

Oppgradering fra RTX 2080ti til RTX 3080 koster 3500kr. Billig :D 

4500 er jo mindre en hva 1080 TI blir solgt for\ligger ute for på finn.no i skrivende stund.. 
fysj.. likke ikke det regnestykket jeg :D

Share this post


Link to post
2 minutes ago, Nimrad said:

Hvordan stiller 3070 seg mot 5700 XT som jeg har i dag?

Hvis grafene som sier at 3070 er på 2080ti nivå så er det jo vesentlig bedre, og det er før evt dlss og ray tracing

Share this post


Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...

×
×
  • Create New...