Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Gjest Slettet-x7D6du0Hjb

"Låne" psu fra f.eks komplett.no i 60 dager går jo :p

 

Det var en kjent av en kompis av meg som drev å kjøpte IPS skjermer for å teste dem, ente opp med å "låne de" i flere måner av gangen og levere dem tilbake til butikken.. Etter 5 ganger sa butikken at det var nok.  :dontgetit:

 

Var litt OT, men minna meg om det. :p 

Endret av Slettet-x7D6du0Hjb
Lenke til kommentar
Videoannonse
Annonse

Du kommer vel ikke her og er "negativ" vel? ;) Tsk tsk tsk, komme her og snakke om gratis RTX for AMD kort, når Nvidia fansen har betalt ekstra for å få ha det for seg selv! ;) Litt artig å se det som ble omtalt som "revolusjonerende" med RTX kort i denne tråden, ikke blir nevnt med et ord når det blir tilgjengelig for "alle"... Vel, om en stund. Det er jo ikke lagt til enda...

 

Så, du er nå uansett litt unøyaktig i ordbruken når du kaller det for "konkurranse". Ihvertfall om du snakker om "Neon Noir" Cryengine demoen? Effektene er API og produsent "agnostic". Som betyr at RTX kortene også vil kunne benytte seg av dette, akkurat som AMD kortene, bare RTX kortene vil jo være bedre. RT kjernene er spesialisert for jobben, og jobben er fremdeles den samme. De har bare funnet en smartere måte å gjøre det på for kort uten RT kjerner, der AMD kortenes overlegne compute kraft kommer til sin rett. Så selv om Vega 56 kanskje vil fungere bra nok til ett bestemt spill, så er det nok ikke sikkert GTX1070 vil takle det samme. Cryengine demoen er nok i så måte en indikasjon på at GTX1660Ti nok kanskje er et bedre valg enn GTX1070, nå som de er samme pris en liten stund. Vel, ikke at noen av dem gir mening overhodet når det bare er 400 Kr opp til 2060 med RT, og tensor kjerner, USB-C/VR-Link, bedre ytelse, og et spill på kjøpet. :p

 

Jeg kjøpte meg forresten et par USB-C overganger for å leke litt med USB-C porten på mitt RTX2070. Bl.a. denne og denne. Funker rett ut av boksen. :) Plugget inn ethernet/USB hub'en, ding dong, plugget så i nettverkskabel og var på nett 3 sekunder senere, USB minnepinne på likt? No problem. :) For øyeblikket tester jeg USB-C - DP adapteren, og har med det fått 3 DP porter på kortet, som i utgangspunktet altså bare hadde 2. Har ikke G-Sync på denne skjermen jeg er på nå, så det blir det neste å teste, når jeg får fingeren ut. :)

Den där var lite kul och kan vara aktuell (den med RJ45).

Vilken hastighet får du ut av den?

Lenke til kommentar

ethernet

Kunde behövt en RJ45 extra utan att ha en massa kort i pc'n

Må väl kanske upp på thunderbolt för att få 10gb nics?

 

Vel, denne USB-C porten på skjermkortet er jo bare 10Gb/s, mens TB3 er vel 40Gb/s? Så jeg regner med det ville vært enklere med TB ihvertfall. Det er uansett "bare" en Gigabit port på denne adapteren. Jeg vet ikke om det finnes raskere til USB-C? Men jeg sjekket nylig ut en test av en 10 Gb/s switch, og der viste de hvordan man kunne velge 2,5 eller 5Gb/s i stedet på en 10Gb/s port, dersom man ikke hadde god nok, eller for lang kabel, eller for mye støy. 5Gb/s over en kabel er jo uansett bedre enn 4Gb/s over 4x 1Gb/s kabler (som man også kunne velge på switch'en). ;)

 

Uansett litt merkelig med Internett tilkoplingen min her nå. Med adapteren får jeg 500Mb/s upload, men bare mellom 200 og 300 Mb/s DL. Kanskje alle naboene mine driver med torrents? :p

Lenke til kommentar

Hmm sant og ikke et dumt tips, dessverre støtter min skjerm kun DP! 1.1 og 1.2.(2 år gammel nå).

 

Men har testet mye med nye drivere i helgen og jeg har fortsatt brightness flicker så fort FPS faller under 50 og innimellom under 60.

 

Testet også med Nvidia Pendulum som er en rask og grei måte å teste.Forsøkte å sette skjermen til 72Hz vs 75Hz native uten at det egentlig hjalp noe (var tips).

Skjermen har en Freesync Range på 48-75Hz som er veldig snevert og noen av spillene jeg spiller er Early Access med FPS issues både her og der.

 

Med CRU kunne jeg tilpasse og teste en utvidet Freesync Range ved å sette det manuelt og restarte driveren men da ble skjermen sort så fort jeg gikk under 48 selv om skjermen støttet refresh helt ned til 23 (vet det ikke er det samme), No go der selv om noen har fått til gode resultater med CRU.

 

EDIT

Men når spill var låst til 60 med Gsync-Compatible aktivert så var det en fantastisk herlighet å spille. Det var nesten uvirkelig hvor bra det føltes når man aldri har sett det før.

Det var i grunn så bra at jeg vurderer å bytte til en G-Sync skjerm for utvidet sync område og få en bedre sync implementasjon.

Endret av Theo343
Lenke til kommentar

Litt off-topic, men mange av gutta med oversikt henger her.

 

Vurderer om jeg nå endelig skal ta meg råd til å bygge en ny rigg som skal ta over for min gamle X58 sliter. Spørsmålet er om det er rett tidspunkt nå ift: Prismessig tenker jeg alt fra 10 (uten skjermbytte) til 30k.

Men så er det evalueringen.

 

- Årstid

Mars er kanskje subotimalt tidspunkt å bygge en ny rigg da våren straks er her og vi går mot sommer med mindre spill launches og spilling. Typisk høysesong er september-mars. Men prismessig?

 

- NKR mot USD

Jeg har ikke fulgt særlig med på dette siste tiden og hvordan krona har utviklet seg og hva spådommene er videre.

 

- Priser på RAM

Dette har vært den store greia som har gjort at jeg har utsatt tidligere. Men etter at store aktører ble tatt for prisfiksing har det rettet seg opp noe. Men hva er spådommene videre? Vente på DDR5? Ventet prisfall på DDR4?

 

- GPU arkitektur

Jeg kommer til å beholde 1080Ti i den nye riggen og heller gå for neste toppserie fra Nvidia. Jeg trenger også noe som gir meg et godt løft i 4K gaming med konsistent 60+ FPS (med unntak av buggy EAs).

Spørsmålet er hvor lenge det er til Nvidia kommer med neste TopTier-Ti kort og om man skal vente med PC bygg til da.

 

- CPU arkitektur

Rimelig sikker på at jeg kommer til å bygge med hovedfokus på god spillytelse men også allround bruk og for meg betur det en 8c/16t eller minimum 6c/12t kanskje worst case 8c/8t el. Men at man kan klokke den for ekstra ST ytelse er viktig.

Intel sin 9900K er ikke gammel men men det er en Coffe Lake Refresh og spørsmålet er om de kommer med noe nytt og viktig i løpet av høsten el.

 

Tenkte lenge på et Small FormFactor bygg men jeg bygger nok midi/maxi tower igjen for enkelhetens skyld og har ikke plassmangel i den grad.

Vurderer AIO vannkjøling på CPU denne gangen.

 

 

Any inputs?

Endret av Theo343
Lenke til kommentar

Litt artig nytt fra Jensens Keynote på GTC i natt: Ray Tracing blir tilgjengelig for GTX Turing kortene også... Og Pascal! Pascal fra 6GB GTX1060, og oppover, fra og med en Game Ready driver planlagt for april. :)

 

Dette forklarer, og bekrefter, hvordan Titan V kunne "brute force" RT i BFV; det er rett og slett ikke så tungt med refleksjoner, siden de kun bør brukes på reflekterende overflater som metall, glass og vann etc. (Noe Dice kanskje ikke var klar over når de slapp første patch som ødela ytelsen så voldsomt?). Behovet for antall stråler reduseres altså markant.

 

Det samme gjelder for skygger, og om patch'en noensinne kommer til Tomb Raider vil vi også der se at relativt moderat HW kan brukes til RT.

 

Global Illumination som i Metro er derimot ganske tungt, og det spørs om noe annet enn RTX kortene realistisk sett kan benyttes til det. Dessverre får vi kanskje ikke vite det før i april, da Nvidia valgte kun å vise "best case scenario"... For RTX! :p Noe som må sies å være en litt morsom avgjørelse. De blir altså "tvunget" til å innrømme at RT vil fungere på sine egne GTX skjermkort med DXR i DX12 (ettersom AMD kortene jo også vil støtte dette), men velger å fremstille det som tross alt fremdeles er deres egne skjermkort (Pascal GTX'ene) i så dårlig lys som mulig, for å få RTX kortene til å skinne. Jeg sier ikke at jeg ikke forstår hvorfor, bare at det er litt komisk.

 

Så det de gjorde når de annonserte Ray Tracing støtte for GTX kort fra Pascal og nyere, var altså å velge oppløsningen 2560x1440, grafikk nivået "ultra" (eller rettere sagt; minst "Ultra", ordrett:"maximum in-game quality", som jo kan være individuelle innstillinger over "Ultra" igjen), og RT nivået "Ultra"... Noe man selvfølgelig aldri ville valgt med de aktuelle Pascal kortene...

 

https://www.nvidia.com/en-us/geforce/news/geforce-gtx-ray-tracing-coming-soon/

Endret av Gabri3L
Lenke til kommentar

Nvidia prøver vel alt de kan nå for å bygge moment for RT. Tror nok mange anser det som en trend de ikke vil investere i, men tror nok dette har fremtid, det er bare snakk om tid og nok av det. Det å backporte til Pascal viser bare at de vil at folk skal få dyppet tærne i dette jo før jo heller, så en skal bli sulten på hva en kan gjøre med fullspec.

Lenke til kommentar

Nvidia prøver vel alt de kan nå for å bygge moment for RT. Tror nok mange anser det som en trend de ikke vil investere i, men tror nok dette har fremtid, det er bare snakk om tid og nok av det. Det å backporte til Pascal viser bare at de vil at folk skal få dyppet tærne i dette jo før jo heller, så en skal bli sulten på hva en kan gjøre med fullspec.

 

Jeg vet ikke om du så grafene til Nvidia for de aktuelle spillene? Det de viste utenom Metro, var i BFV (der de nok nerfet 1080Ti med å skru på HDR), at de gikk fra 58 til 63 fps med RTX2080 når de utførte RT med RT kjernene i stedet for med shaderne. Altså ble spillet 8,6% raskere med RT kjerner i stedet for med shaderne... Det er ikke voldsomt mye, og vil kun gjelde for spill med RT refleksjoner. Hvor mye raskere ville RTX2080 vært i alle spill, dersom de hadde benyttet plassen som RT kjernene tar på chip'en, til shadere i stedet?

 

I SotTR ser vi i det minste ~20 prosent høyere fps, igjen sannsynligvis med HDR riktignok. Men også kun ~11 fps ekstra. Og helt ærlig; jeg likte alltid RTX "off" bedre enn "on" i SotTR demoen. Men OK, om vi antar at det kommer bedre til sin rett i andre spill, så er 11 fps/20% ingen "revolusjon".

 

Metro er det spillet der jeg personlig har likt RT best. Men det kan være tilfeldig, det gikk mer på fargetonen med RTX on, det virket mer virkelighets nært med RTX. Men jeg vet jo ikke om man kan kalibrere monitoren for å kompensere. Eventuelt, om den litt misfargede snøen rett og slett var en "artistic decision"? Snøen skal være skitten i henhold til utviklernes "vision", spillet tar jo ikke plass i paradis akkurat, men så kommer RTX og "føkker" det til med ren hvit snø? :p

 

Uansett, GI i Metro er faktisk ikke spesielt imponerende i forhold til GI i Forza for eksempel (SVOGI), som kjører bra på en potet igjen. No RTX needed...

Endret av Gabri3L
Lenke til kommentar

Sammenlignet du virkelig Metro med Forza Horizon 4 og konkluderte at Forza hadde bedre grafikk?

Forza kjører særdeles bra, og ser veldig bra ut i forhold til ytelsen, men det er ikke helt på Metro-nivå. Til tross for at Forza er et mer underholdende spill.

 

 

EDIT:

Nvidia har postet en tech demo for RTX som er litt mer imponerende enn Cryteks "NEON NOIR"

 

De har også oppgradert Quake II med RTX: https://www.nvidia.com/en-us/geforce/news/quake-ii-rtx-ray-tracing-vulkan-vkray-geforce-rtx/

Ser svært bra ut på skjermbildene.

Endret av N o r e n g
  • Liker 2
Lenke til kommentar

Forza prioriterer hastighet veldig høyt. Alle features som implementeres blir nok veid 5-6 ganger opp mot hvor mye det koster på ytelsesbudsjettet. Metro har også bra ytelse, men er i mindre grad bundet mot høy FPS.

 

Blir uansett spennende å se hva som blir utfallet av backportingen.

CPU har jo også en del matrisefunksjoner men det skalerer jo ikke sånn som på Nvidia.

Lenke til kommentar

Sammenlignet du virkelig Metro med Forza Horizon 4 og konkluderte at Forza hadde bedre grafikk?

 

Nei, det var ikke det jeg skrev. Poenget mitt var som sagt at man kan kjøre Forza på en "potet". Da er det liksom ikke lenger fullt så imponerende om man får litt bedre resultat med et skjermkort som koster det femdobbelte.

 

I Forza 4 får man 60 - 70 fps i 1440p Ultra med et GTX1060 eller RX580. Skrur man på GI i Metro i 1440p, så dipper til og med 2080Ti ned under 60 fps.

 

Greit nok, spillene er alt for forskjellige til å sammenliknes direkte. Men jeg synes det er nok til å ikke bli imponert over 2080Ti og GI i Metro når det kommer til ytelsen. Hver gang noen her nevner gaming i 60 fps så kommer Nizzen og resten av 60Hz polititet og skriker om hvor umulig det er å spille på. Så da må jo under 60 fps med det dyreste raskeste forbruker kortet på markedet være en fail da?

 

Uansett finnes det andre titler med SVOGI, som også er spillbare med helt vanlige skjermkort. Avhengig av definisjonen på "spillbar". :p Jeg mener Kingdom Come bruker SVOGI?

 

EDIT:

Nvidia har postet en tech demo for RTX som er litt mer imponerende enn Cryteks "NEON NOIR"

Igjen; jeg synes Neon noir er mer imponerende, det kjører tross alt på et mellomklasse kort man i dag får kjøpt til under 4000 Kr. Tror du de kjører demoen din på et RTX2070? ;)

 

De har også oppgradert Quake II med RTX: https://www.nvidia.com/en-us/geforce/news/quake-ii-rtx-ray-tracing-vulkan-vkray-geforce-rtx/

Ser svært bra ut på skjermbildene.

 

Det der er vel path tracing uten denoising? Imponerende på sett og vis i så fall, men vi ser jo hvor mye det koster/krever...

Lenke til kommentar

 

Nei, det var ikke det jeg skrev. Poenget mitt var som sagt at man kan kjøre Forza på en "potet". Da er det liksom ikke lenger fullt så imponerende om man får litt bedre resultat med et skjermkort som koster det femdobbelte.

 

I Forza 4 får man 60 - 70 fps i 1440p Ultra med et GTX1060 eller RX580. Skrur man på GI i Metro i 1440p, så dipper til og med 2080Ti ned under 60 fps.

 

Greit nok, spillene er alt for forskjellige til å sammenliknes direkte. Men jeg synes det er nok til å ikke bli imponert over 2080Ti og GI i Metro når det kommer til ytelsen. Hver gang noen her nevner gaming i 60 fps så kommer Nizzen og resten av 60Hz polititet og skriker om hvor umulig det er å spille på. Så da må jo under 60 fps med det dyreste raskeste forbruker kortet på markedet være en fail da?

 

Uansett finnes det andre titler med SVOGI, som også er spillbare med helt vanlige skjermkort. Avhengig av definisjonen på "spillbar". :p Jeg mener Kingdom Come bruker SVOGI?

 

Igjen; jeg synes Neon noir er mer imponerende, det kjører tross alt på et mellomklasse kort man i dag får kjøpt til under 4000 Kr. Tror du de kjører demoen din på et RTX2070? ;)

 

 

Det der er vel path tracing uten denoising? Imponerende på sett og vis i så fall, men vi ser jo hvor mye det koster/krever...

At mer presis, og mye mer regnetung grafikk ikke ser betraktelig bedre ut er ikke nytt, denne trenden har eksistert helt siden begynnelsen av denne konsollgenerasjonen. Eneste grunnen til at jeg oppgraderte fra et Maxwell Titan X var fordi nye tyngre spill som Monster Hunter World kjørte dårlig.

 

Neon Noir er mye mer begrenset i størrelse, og kjørte ikke spesielt mykt heller om du ser på opptaket.

 

Quake II RTX bruker fortsatt denoising, det er rett og slett ikke mulig å generere nok lysstråler for å klare seg uten.

Lenke til kommentar

En tng er lys, skygge, refleksjoner osv. Men det jeg synes bransjen virker å sliter mest med er god teksturhåndtering.

 

EDIT:

Samt at det virker som man forstatt har mye å hente på aka "Occlusion Culling".

https://www.gamesindustry.biz/articles/2016-12-07-overview-on-popular-occlusion-culling-techniques

 

https://forum.unity.com/threads/boost-your-games-fps-gpu-occlusion-culling-without-baking-and-raycasting.618586/

Endret av Theo343
Lenke til kommentar

Spesielt at det billigste 2080 ti fra Asus på komplett, med 2K i rabatt, fortsatt er dyrere enn det billigste kortet hos proshop. Vet ikke om det er prisene til komplett, Asus eller begge det er noe galt med. Dette er altså Asus turbo og inno3d jet, mer eller mindre identiske kort.

Endret av Kyrre S.
Lenke til kommentar

Spesielt at det billigste 2080 ti fra Asus på komplett, med 2K i rabatt, fortsatt er dyrere enn det billigste kortet hos proshop. Vet ikke om det er prisene til komplett, Asus eller begge det er noe galt med. Dette er altså Asus turbo og inno3d jet, mer eller mindre identiske kort.

 

Tror det kan være kjøleren det er noe "galt" med. Kortet tar jo opp 2,7 plasser ("slots").

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...