Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Gabri3l: Hmm, får virkelig håpe DLSS blir bedre enn dette ganske snarlig. Trodde litt av poenget med DLSS var at man skulle få tilnærma like god bildekvalitet til bedre ytelse, ikke dårligere bildekvalitet til lavere ytelse.

 

Vel, det resulterende bildet er jo 4K, og da med høyere fps enn native rendering i 4K, både med og uten TAA. Så høyere "ytelse" ble det jo ihvertfall. Naturlig nok lavere ytelse enn 1440p native rendering, men det var jo et tall de bare tok med for å vise hvor mye ekstra tid Tensor kjernene trenger på å gjøre 1440p bildet om til 4K.

 

Eller tenkte du på DLSS x2 når du henviser til lavere ytelse? Det er jo egentlig noe ganske annet . Og ja, det ser ut til å gå kraftig ut over ytelsen, men til gjengjeld ser det jo helt fantastisk ut!

 

Men uansett, nå er ihvertfall DLSS i spill endelig i gang. Det blir interessant å se om det blir bedre og bedre med tid, slik enkelte av Nvidias disipler har hevdet...

Lenke til kommentar
Videoannonse
Annonse

Vel, det resulterende bildet er jo 4K, og da med høyere fps enn native rendering i 4K, både med og uten TAA. Så høyere "ytelse" ble det jo ihvertfall. Naturlig nok lavere ytelse enn 1440p native rendering, men det var jo et tall de bare tok med for å vise hvor mye ekstra tid Tensor kjernene trenger på å gjøre 1440p bildet om til 4K.

 

Eller tenkte du på DLSS x2 når du henviser til lavere ytelse? Det er jo egentlig noe ganske annet . Og ja, det ser ut til å gå kraftig ut over ytelsen, men til gjengjeld ser det jo helt fantastisk ut!

 

Men uansett, nå er ihvertfall DLSS i spill endelig i gang. Det blir interessant å se om det blir bedre og bedre med tid, slik enkelte av Nvidias disipler har hevdet...

Skulle skrive "dårligere bildekvalitet til bedre ytelse", hehe, tenkte ikke på DLSS x2 nei. Det jeg mente. Får håpe DLSS blir forbedra framover og kan gi bildekvaltiet ala TAA og bedre ytelse som jeg antar var Nvidias intensjon ;)

Lenke til kommentar

En ting som er tydelig fra skimringen i FFXV, er at LOD-nivåene er for høye.

Grunnen til at skimring oppstår er fordi det er for mye detaljer i forhold til hva oppløsningen kan vise skikkelig.

De manglende detaljene i teksturer er synd, men i praksis vil man nok ikke legge veldig merke til dette.

 

Hvis alternativet er å kjøre spillet i 4K DLSS eller 1440p uten DLSS på en 4K TV, tror jeg de fleste vil velge DLSS.

Lenke til kommentar

DLSS gir en merkbar degradering av bildekvalitet.

RTX gir en merkbar degradering av ytelse.

 

Hvordan blir det seende ut med DLSS aktivert, og deretter skrur man på RTX i tillegg? Det må bli fryktelig rart bilde, når de skal dele på Tensor kjernene?

 

Skulle gjerne oppgradert til 2080 Ti, men liker ikke hverken prisen eller ulempene DLSS og RTX har i dag.

  • Liker 1
Lenke til kommentar

Jensen slet litt med å få cred for DLSS i scene-presentasjonen sin (oh, come on), men med tanke på hva teknologien oppnår er det faktisk ikke så verst, men det skader jo ikke å tweake den litt bedre, noe jeg antar de har på blokka, om enn ikke høyest på den.

 

Det er ny teknologi som normat tar tid å bygge opp til stort nok moment. En er jo avhengig av nok salg for å få brukermassne stor nok til at en vil sette nok innsats i vidreutviklingen. Den kickstarten nVidia har lagt ned i RTX og incentivene de har gitt til utviklere kan falle begge veier. Hadde du vært villig til å satse hus og barn på RTX om du var en utvikler, eller hadde du safet med mainstream-markedet ?

Lenke til kommentar

Jensen slet litt med å få cred for DLSS i scene-presentasjonen sin (oh, come on), men med tanke på hva teknologien oppnår er det faktisk ikke så verst, men det skader jo ikke å tweake den litt bedre, noe jeg antar de har på blokka, om enn ikke høyest på den.

 

Det er ny teknologi som normat tar tid å bygge opp til stort nok moment. En er jo avhengig av nok salg for å få brukermassne stor nok til at en vil sette nok innsats i vidreutviklingen. Den kickstarten nVidia har lagt ned i RTX og incentivene de har gitt til utviklere kan falle begge veier. Hadde du vært villig til å satse hus og barn på RTX om du var en utvikler, eller hadde du safet med mainstream-markedet ?

De velger å selge kortene DYRT i og med at du ikke helt får utnyttet teknologien fult ut.... trist sak. Kortet burde ha vært lansert til et mye lavere pris for å "kickstarte" teknologien.

Lenke til kommentar

De velger å selge kortene DYRT i og med at du ikke helt får utnyttet teknologien fult ut.... trist sak. Kortet burde ha vært lansert til et mye lavere pris for å "kickstarte" teknologien.

 

Det er jo en haug med hensyn å ta for dem. Som regel ender kundene opp med å betale mye av prisen for de incentivprogrammene de kjører mot utviklere og de innkjøringsproblemene de har. Kunder har jo også interesse av at teknologien tar av slik at man får større glede av den, så det er jo på mange måter i egeninteresse også at teknologien får kritisk masse.

 

Sony holdt jo på å gå dukken med sponsing av PS3-hardware i starten, så dette prøver vel mange produsenter å unngå.

nVidia er jo litt i samme utfordringene med hvordan de vil håndtere risiko med hensyn på så kraftig innovasjon de driver.

Endret av vidor
Lenke til kommentar

Ny teknologi gir nye utfordringer. Første generasjon DLSS er sannsynligvis ikke kjapt nok på dagens Tensor kjerner. I og med at opptegning av bilder lagger merkbart.

 

Og DLSS må være ferdig tegnet før RTX kan reflektere/speile det korrigerte bildet. Produktet blir ikke bedre enn det svakeste leddet.

 

Nye og kraftigere kort takk.

Lenke til kommentar

Og DLSS må være ferdig tegnet før RTX kan reflektere/speile det korrigerte bildet. Produktet blir ikke bedre enn det svakeste leddet.

Dette stemmer ikke. Raytracing regner ut banen lys vil ta fra lyskilden til det når kamera/øye, og er ikke avhengig av DLSS i det hele tatt.

 

Tvert imot er poenget med DLSS og RT at RT skal utføres først, så oppskaleres gjennom DLSS

  • Liker 6
Lenke til kommentar

Jeg prøver å overclocke mitt 2080 med Afterburner her, men jeg får ikke til å stille på Core Voltage-slideren? Jeg har unlock voltage control og unlock voltage monitoring huka på inne på settings.

Hvorfor skal du øke core voltage? Øker du spenningen vil du bare nå power-limit fortere.

Trikset er å justere kurven, du kommer til å nå maks boost ved ca 1030-1050 mV uansett

Lenke til kommentar

Tror mitt Gainward 2080 Ti kort er ødlagt. Virker som viftene går i en kostant speed uansett belastning. Får artefakter og låst maskin etter få minutters spilling, og maskinen vil ikke våkne opp etter hvilemodus.  :hm:  Fungerte normalt de første to ukene med bruk...

 

Noen flere med problemer?

Kan være strømforsyning også, så med mindre du har en dårlig kvalitets psu på 450 watt så hadde jeg tatt den også i betrakning.

Om du kan teste gpu i et annet system først så gjør det før du eventuelt tar kontakt med der du kjøpte den for å få i gang retur.

Lenke til kommentar

Hvor mange kjøpte du ? ;)

Tipper han kjøpte de 2 som ble laget :-p

Men nå antar jeg at han greier seg med 1 , har han kjøpt 2 skal jeg bøye meg i støvet for det og gratulere ham fordi han vil være en av de største entusiastene innenfor datateknologi som jeg vet om.

 

Håper vi får screenshots etter hvert.

Endret av Malvado
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...