Gå til innhold

Derfor mener Nvidia at 4K er fremtiden for spilling


Anbefalte innlegg

Nvidia demonstrerer detaljbehovet for spillere med stillbilder. Ganske beskrivende for hvor overdrevet detaljfokuset er. Sikre oss 120 fps først så kan vi begynne å snakke om bedre oppløsning så fremt det ikke går baklengs på oppdateringshastighet.

 

Det er kun i det beste skarpsynet man kan se så fine detaljer som 1 bueminutt. Skjermen burde hatt øye-tracking så skjermkortet kan produsere svært høyt detaljnivå der man ser med skarpsynet og ellers sørge for bedre hastigheter ved å redusere detaljnivået i det mer uskarpe sidesynet.

 

Øyetracking til spill ville jo krevd en enorm prossessorkraftighet og en rimelig rask responstid, for å være effektiv.

Lenke til kommentar
Videoannonse
Annonse

Øyetracking til spill ville jo krevd en enorm prossessorkraftighet og en rimelig rask responstid, for å være effektiv.

Må det? Mange "briller"/hodesett med øyetracking har en liten og energigjerrig innebygget prosessor som tar seg av øyetrackingen raskt. De koster heller ikke all verden. Noen webkamera har samme trackingfunksjonalitet via PC-prosessoren og de krever ikke akkurat mye. Disse variantene er noe tregere, så det er stort sett hodesettene/"brillene" som beviser at det ikke skal så mye til.

 

Så nei folk flest får ikke 60 fps i 1080p.

Som sagt, folk flest spiller ikke. For 90% av folk flest duger altså en 5 år gammel IGP. For de resterende under 10% som spiller får de aller fleste som sagt 60 fps i minimum ett av spillene de spiller. Og nei, det langt i fra alle spill man må stille tilbake til 2001-nivå for å få 60 fps. Mange kjøper skjermkort til mange tusen og stiller kvaliteten til maks bare fordi de kan, ikke fordi de merker store grafiske forskjeller under spillingen.

Endret av Simen1
Lenke til kommentar

Du kan definitivt nedjustere AA når oppløsningen blir større, og det er jo en god måte å få tilbake litt av ytelsen du mister ved å gå opp i oppløsning.

 

Lavere oppløsning og høyere kvalitet AA kan være en bedre bruk av ressursene. For meg er 4k skjermer mer spennende når det kommer til vanlig desktop bruk, spesielt mtp skarpheten i tekst.

Jeg spiller med 1440x2560 pixler på min 27" imac med gtx 680mx uten AA, (Det er ingen nytte av AA med denne oppløsningen) og kjører de fleste tunge spill i 50-60 fps (far cry 3, bf3, assasins creed3 osv). 1440p gir ca 80% flere pixler enn 1080p og gir en veldig synlig forbedring i detaljrikdom. For å få glede av det ekstra detajnivået må jeg sitte max ca 60-70 cm fra skjemen. Hva med å starte der? Må vi hoppe fra 1080p helt opp i 4K?

 

De fleste 1080p skjermene er på 24", så fra det til en 27" med 2560x1440 blir PPI et godt stykke unna 80% høyere. Det å snakke om at AA ikke noe nytte her er for meg helt absurd. Selv kant aliasing vil forsatt være betydlig her og høyere oppløsning gjør lite for pixel støy fra teksturer og shadere.

Endret av MistaPi
Lenke til kommentar

Tenker det koster mer enn det smaker.

 

Det krever 4 ganger så mye ytelse som 1080p. Tenker den ytelsen kan brukes på mye annet enn oppløsning hvis målet er å få spillet til å sees/føles mest mulig fotorealistisk.

 

Ja jeg hadde selv mye heller tatt 4x bedre grafikk innhold og effekter i 1080p, men takket være konsollene vil 4k være veien å gå for å selge nye og kraftigere skjermkort.

Lenke til kommentar
Gjest Bruker-245639

Tenker det koster mer enn det smaker.

 

Det krever 4 ganger så mye ytelse som 1080p. Tenker den ytelsesøkningen kan brukes på mye annet enn oppløsning hvis målet er å få spillet til å sees/føles mest mulig fotorealistisk.

Det er ikke lenge.

Lenke til kommentar

Er du sikker på det?

Om man ikke kan se pixlene individuelt så virker jo øynene som et AA-filter i seg selv.

 

Pixlene må forsatt rendres skikkelig. Teksturer må f.eks forsatt samples, filtrert riktig og gi pixlene korrekte farger for å unngå støy i teksturene (texture aliasing). Texture filtering er en type AA det også.

Shader aliasing er også noe høyere oppløsning vil hjelpe lite på.

Lenke til kommentar

Jeg spiller med 1440x2560 pixler på min 27" imac med gtx 680mx uten AA, (Det er ingen nytte av AA med denne oppløsningen) og kjører de fleste tunge spill i 50-60 fps (far cry 3, bf3, assasins creed3 osv). 1440p gir ca 80% flere pixler enn 1080p og gir en veldig synlig forbedring i detaljrikdom. For å få glede av det ekstra detajnivået må jeg sitte max ca 60-70 cm fra skjemen. Hva med å starte der? Må vi hoppe fra 1080p helt opp i 4K?

 

 

De fleste 1080p skjermene er på 24", så fra det til en 27" med 2560x1440 blir PPI et godt stykke unna 80% høyere.

Gjorde litt number crunching:

 

2560*1440 = 3686400

1920*1080 = 2073600

 

77,7% økning (så antall pixler øker med 80% "omtrent")

 

Mens:

 

1920*1080 - 24" = 91.79 PPI

2560*1440 - 27" = 108.79 PPI (122.38 PPI med 24")

 

18.5% økning bare fordi at man øker skjermen også. Om man lar skjermen bli på 24", får man 122.38 PPI, en økning på 33.3% fra 1080P.

 

4K:

3840*2160 - 24" = 183.58 PPI - 100% økning

3840*2160 - 27" = 163.18 PPI - 77.7% økning (Først her får man den 80% økningen i PPI fra 1080P med 24")

 

Trivia: selv med 4K på 24"/27" skjermer, ligger PPI massivt under mobilene med:

1136x640 @ 4" - Apple iPhone 5 - 326 PPI

1280*720 @ 5.5" - Samsung Galaxy Note 2 - 267 PPI

 

Så Kenx, jeg vil si vi nærmer oss, når vi får 4K. :)

 

Edit: En liten Trivia til: 8K! 7680*4320 med 27" gir samme PPI som iPhone 5 har. SÅ! mye ligger mobilene foran (på en måte). :p

Endret av Kenichi-san
Lenke til kommentar

Skyhøy oppløsning kan gjøre mye for spilling.

 

Derfor mener Nvidia at 4K er fremtiden for spilling

"Forklaringen tar utgangspunkt i at du sitter rundt 50 centimeter fra skjermen når du spiller, og at du da på en 27 tommer stor monitor vil du få en pikseltetthet på 19,3 piksler per grad di synsfeltet – gitt at du har en oppløsning på 1920 x 1080 punkter.

 

Ved å gjøre om oppløsningen til 4K og vise dette på en skjerm som er 31,5 tommer, vil pikseltettheten økes til 35,6 piksler per grad. Dette er en forskjell på 84 prosent i antall punkter, sammenlignet med en 27-tommers Full HD-skjerm.

 

Så kommer spørsmålet; hvor høy kan egentlig pikseltettheten være før øyet ikke lengre henger med? Svaret er ifølge Nvidia 50 piksler per grad. Hvilket betyr at 4K fortsatt er et stykke unna å nå denne grensen"

 

Hmm... http://home.roadrunner.com/~res18h39/calculator.htm

^ Ved å velge 27" skjerm (diagonalt), 50 cm avstand og 1920 oppløsning horisontalt får jeg 28.03 PPD minimum og 31 average , ikke 19.3.

4K - 3840 oppløsning horisontalt, 50 cm avstand og 31.5" skjerm diagonalt - 48.05 PPD minimum og 55 PPD average, så hvis Nvidia mener 50 er det optimale er jo grensen nådd med 4K.

Går vi skjermstørrelse ned til 24" & 27" vil 4K gi 56 PPD minimum på 27" og over 60 PPD for 24". :)

Lenke til kommentar

PPI er jo på mange måter en ikke en særlig god faktor slik det fremstilles mange ganger. PPI tar hensyn til arealet til skjermen, men ikke til sitteavstanden. Og dermed kan man ikke bedømme skarpheten ved å se på PPI. Det er en faktor som i mine øyne kan falle litt mellom to stoler, hvor du har oppløsning som kun sier noe om hvor mange piksler du har, og den faktiske skarpheten jeg beregner hos meg.

 

En skjerm med 10 PPI kan være vell så skarp som en med 50 PPI. Noe som er grunnen til at ikke kinoer, som jo har 100 ganger dårligere PPI enn en vanlig TV, ikke ser fryktelig uskarpt ut.

 

PPI fungerer dog bra til en ting, og det er hvor stor del av synsfeltet du kan dekke med en gitt skarphet.

Endret av Andrull
Lenke til kommentar

PPI tar hensyn til arealet til skjermen, men ikke til sitteavstanden.

-----

Ja, å bruke grader (eller bueminutt/buesekunder som er fraksjoner av dette) er ypperlig sånn sett. :)

Bare synd det ikke er vanligere å bruke.

 

PPI tar vel hensyn til og oppgis for en enkeltdimensjon, ikke areal...

 

----

 

PPI er en naturlig måte å angi pikseltetthet på en skjerm, da produsenten slik ikke oppgir mer enn skjermens egenskaper.

 

Øyets avstand til skjermen kan brukes til å direkte regne ut bueminutter/sekunder fra PPI. Man kunne evnt. oppgitt en standard sitteavstand avhengig av skjermstørrelsen, men den må da oppgis for at tallet skal gi mening.

Lenke til kommentar
Gjest Bruker-245639

Ja, bruk buesekund eller bueminutt, under ideele forhold kan vi skille ned til 0,1 bueminutt på stillestående bilde, kanskje enda mer på en bevegelig skrå svart strek på hvit bagrunn. NVIDIA har vel brukt 1,2 bueminutt eller noe som sitt mål.

 

AtW

Uuuuæhh huh? *Gå å besøke onkel Google litt*

Lenke til kommentar
  • 3 måneder senere...

 

når man har pixler tettere en det øye kan takle, er anti-aliasing nødvendig lenger?

Synes alle burde kjøre 2x AA som standar og fjerne instillingen for aa, jeg ser ingen forskjell fra et 2x AA bilde å ett med 64x AA

Vel, bare fordi du ikke ser forskjell betyr det ikke at andre ikke gjør det ;)

 

Jeg ser god forskjell.

 

Når selv forskjellen mellom 4x og 16x er såpass god bør du hvertfall se forskjell mellom 2x og 4x :)

 

 

 

luminex_aa.jpg

Endret av IceBlitz
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...