Gå til innhold

Geforce GTX 9xx Tråden


Anbefalte innlegg

Videoannonse
Annonse

Så en 144/165 Hz G-Sync skjerm gir deg ikke en fordel i skyte spill, bare en glattere opplevelse da, kort fortalt?

Prøver å rettferdiggjøre kjøpe mitt av Asus skjermen til 9000 kr (!!!), men ser ut som dere gir meg en grunn til ikke å gjøre det :p

Man trenger aldri rettferdiggjøre et kjøp av pc utstyr, har du lyst så kjøper du. Deretter glir du ned et par kalde og feirer nok et godt kjøp.

Fordelen i et skytespill er å kunne komme seg bak fienden for så og plassere skuddene midt i ryggtavla på han (det fortjener oxo et par kalde)

Som du nå har skjønt er et par kalde den største fordelen med alt :-)

Lenke til kommentar

 

Så en 144/165 Hz G-Sync skjerm gir deg ikke en fordel i skyte spill, bare en glattere opplevelse da, kort fortalt?

Prøver å rettferdiggjøre kjøpe mitt av Asus skjermen til 9000 kr (!!!), men ser ut som dere gir meg en grunn til ikke å gjøre det :p

Man trenger aldri rettferdiggjøre et kjøp av pc utstyr, har du lyst så kjøper du. Deretter glir du ned et par kalde og feirer nok et godt kjøp.

Fordelen i et skytespill er å kunne komme seg bak fienden for så og plassere skuddene midt i ryggtavla på han (det fortjener oxo et par kalde)

Som du nå har skjønt er et par kalde den største fordelen med alt :-)

 

Skyte dem i huet er det beste :)

Lenke til kommentar

 

 

Så en 144/165 Hz G-Sync skjerm gir deg ikke en fordel i skyte spill, bare en glattere opplevelse da, kort fortalt?

Prøver å rettferdiggjøre kjøpe mitt av Asus skjermen til 9000 kr (!!!), men ser ut som dere gir meg en grunn til ikke å gjøre det :p

Man trenger aldri rettferdiggjøre et kjøp av pc utstyr, har du lyst så kjøper du. Deretter glir du ned et par kalde og feirer nok et godt kjøp.

Fordelen i et skytespill er å kunne komme seg bak fienden for så og plassere skuddene midt i ryggtavla på han (det fortjener oxo et par kalde)

Som du nå har skjønt er et par kalde den største fordelen med alt :-)

 

Skyte dem i huet er det beste :)

 

Har du tatt nok kalde er det pokker ikke like lett å treffe den lille knotten, derimot den feite ræva på den late campern klarer man jo ikke bomme på ;-)

Lenke til kommentar

Så en 144/165 Hz G-Sync skjerm gir deg ikke en fordel i skyte spill, bare en glattere opplevelse da, kort fortalt?

Prøver å rettferdiggjøre kjøpe mitt av Asus skjermen til 9000 kr (!!!), men ser ut som dere gir meg en grunn til ikke å gjøre det :p

 

Jeg har ihvertfall ikke sagt det. Hvor fort vi kan se, og hvor fort vi kan få gjort noe med hva vi kan se (reaksjonsevne). Har helt sikkert noe med dags form å gjøre. Det er imidlertid så absolutt to forskjellige ting. Jeg pleier å referere til en artikkel jeg leste en gang om RAF piloter som ble testet under andre verdenskrig med høyhastighets film fremvist. Resultatet var at selv om bare et av over 200 bilder per sekund ble byttet ut med silhuetten av et fly, så kunne pilotene med best syn, ikke bare si når silhuetten ble fremvist, men også hvilken flymodell. Jeg googlet nå for å finne artikkelen, og kom over dette på reddit hvor det er lagt til mange kilder på dette fenomenet. Så kanskje interessant lesestoff for noen.

 

Nå er der selvfølgelig hull i mine kunnskaper også. Et av dem blir avdekket her, og det er at jeg ikke vet nøyaktig hvordan et skudd i FPS spill registreres. Jeg har forsøkt å google det, men informasjonen jeg har funnet har som regel ikke virket helt troverdig (besservissere på forum :p), eller over mitt hode (for teknisk). Så jeg er på litt tynn is her. Men slik jeg har tolket det, så må koordinatene for hvor siktet befinner seg i det du trykker inn museknappen registreres på et bilde tegnet av skjermkortet. Om skjermkortet bruker 15ms på å tegne det bildet, må du nødvendigvis vente 15ms på det. Om skjermkortet bruker 5ms, så har du potensielt kortet inn din da i praksis reaksjonstid med 10ms. Reaksjonstiden din er jo selvfølgelig egentlig akkurat den samme, men tiden det tar før informasjonen kan sendes til spillserveren er kortet inn. Og her kommer da videre innkorting av ms ping med "spill-routere" og "spill-nettverkskort" inn i bildet. Men også for eksempel at det er 1ms polling rate fra mus og tastatur. 1000Hz mus kalles det kanskje? Jeg regner med de fleste spillmus har det. Men om man gamer med ei "kontormus" fordi den kjennes god ut i hånda, så kan det være at man snyter seg selv for et par millisekunder.

 

Om dette er riktig, er det viktig å ha høy fps. Så 300fps på en 1080p skjerm er dobbelt så raskt som 150fps på en 1440p skjerm. Skal du rettferdiggjøre kjøpet er det altså denne 200Hz skjermen du skal ha. Fordi den er lettere å drive er viktigere, enn at den har høyere refresh rate enn den du kikker på. Men så kommer vi også til et punkt der det kanskje er like greit å si at; "disse siste millisekundene er nok ikke de som avgjør om jeg vinner eller ikke.". Dersom du kan gi skjermen din 165fps, så er vi nede i 6,06ms, en stor og klar forbedring over de 16,7ms en skjermoppdatering på en 60Hz skjerm gir. Men si at du spiller mot en "galning" som har skrudd av V-Sync på sin 144Hz skjerm, og får 300fps. Han har jo bare ~2,7ms fordel på deg. Men sitter han i Brasil, så har han sikkert 20ms lenger ping. :p

 

Poenget med å vite hva man kan gjøre for å korte inn den effektive reaksjonstiden vår mot spillserveren. Er at når alt annet ellers er likt, så vet man at man ikke kunne gjort noe mer. Noen av oss ønsker imidlertid å fremdeles kunne legge skylden på utstyret, og da er det altså bare å skru på V-Sync. :p

Lenke til kommentar

Poenget med å vite hva man kan gjøre for å korte inn den effektive reaksjonstiden vår mot spillserveren. Er at når alt annet ellers er likt, så vet man at man ikke kunne gjort noe mer. Noen av oss ønsker imidlertid å fremdeles kunne legge skylden på utstyret, og da er det altså bare å skru på V-Sync. :p

 

 

Tanken bak kjøp av gaming skjerm for meg, er at jeg vil ha en skjerm som ikke vesentlig hindrer meg i fps spill, slik at det går mest mulig på min reaksjonsevne og skillz, istedenfor utstyret. Så er det jo flott å slippe den jævla screen tearinga da, og her kommer G-Sync inn.

 

Så er det jo den saken med mest mulig fps i spillet vs god bildekvalitet da. Jeg spiller ikke på low/medium bare for å få 144 fps altså! Da nøyer jeg meg heller med la oss si 80 fps, og med Ultra settings. Kanskje finne en slags sweetspot da.

 

Dere som har Rog Swift skjermen, ser dere forskjell mellom f.eks 80 og 144 fps når G-Sync er på? Eller er det bare placebo effekten som spiller inn her? :p

Lenke til kommentar

 

Poenget med å vite hva man kan gjøre for å korte inn den effektive reaksjonstiden vår mot spillserveren. Er at når alt annet ellers er likt, så vet man at man ikke kunne gjort noe mer. Noen av oss ønsker imidlertid å fremdeles kunne legge skylden på utstyret, og da er det altså bare å skru på V-Sync. :p

 

 

Tanken bak kjøp av gaming skjerm for meg, er at jeg vil ha en skjerm som ikke vesentlig hindrer meg i fps spill, slik at det går mest mulig på min reaksjonsevne og skillz, istedenfor utstyret. Så er det jo flott å slippe den jævla screen tearinga da, og her kommer G-Sync inn.

 

Så er det jo den saken med mest mulig fps i spillet vs god bildekvalitet da. Jeg spiller ikke på low/medium bare for å få 144 fps altså! Da nøyer jeg meg heller med la oss si 80 fps, og med Ultra settings. Kanskje finne en slags sweetspot da.

 

Dere som har Rog Swift skjermen, ser dere forskjell mellom f.eks 80 og 144 fps når G-Sync er på? Eller er det bare placebo effekten som spiller inn her? :p

 

Hva jeg ser og ikke ser er nå en ting. (80 fps har jeg aldri sett) Dog merket jeg at k/d ratioen gikk merkbart opp fra en 120hz 24" og til en 144hz 27" (Asus VG278HE), samtidig økte den igjen når jeg fikk inn Rog Swift skjermen. Skal i så fall være en jævlig bra placebo :-)

Lenke til kommentar

Nå er der selvfølgelig hull i mine kunnskaper også. Et av dem blir avdekket her, og det er at jeg ikke vet nøyaktig hvordan et skudd i FPS spill registreres. Jeg har forsøkt å google det, men informasjonen jeg har funnet har som regel ikke virket helt troverdig (besservissere på forum :p), eller over mitt hode (for teknisk). Så jeg er på litt tynn is her.

La meg forsøke en teknisk forklaring.

Måten spill får input på er at de leser en kø med IO events fra operativsystemet. Så med et fast tidsintervall tar spillet alle statusendringene og genererer en ny spilltilstand, dette kalles en "game loop". Det er her all spill-logikk skjer; bevegelser, kollisjoner, skyting, osv. For at et spill skal være spillbart må game loop kjøre uten problemer på minstekravene til spillet, og minstekravet setter derfor restriksjoner for hvor kompleks spill-logikk kan være. I nettverksspill (f.eks. skytespill) så utføres selve spill-logikken på serveren, mens klientene bare sender sine events til serveren og får ferdige spilltilstander tilbake. Normalt må altså serveren behandle alle events før spillet får en ny tilstand det kan tegne. Derfor blir latency mellom spillere og host svært viktig, som enhver spiller har erfart. En rekke spill har gjort noen "jukseløsninger", som f.eks. WoW hvor klienten selv også gjennomfører spill-logikken, men får med jevne mellomrom korreksjoner fra serveren som gjør beregningene parallelt. Dette medfører at spillet plutselig får "hopp" der spilleren plutselig er i en annen situasjon. Det er forøvrig ikke uvanlig at spill lar deg snu på kamera eller lignende, selv om all handling i spillet må genereres av server.

 

Latency i spill er et mye større problem enn mange er klar over, og det er en lang kjede av problemer: (dette har vært nevnt før av meg)

1) Hardware input: Forsinkelsen fra kontrolleren din til operativsystemet. For PS/2 ~0.73 ms per trykk, USB HID opp mot ~10ms(pga. verifisering), Bluetooth opp mot ~30ms med HID. I tillegg finnes det ikke-standardiserte protokoller.

2) Operativsystem- og driverhoverhead: Operativsystemet driver med scheduling av threads, venter på kall fra drivere, køer opp IO events, osv. Kan typisk legge på ~1-3ms på IO events, ~1ms på threading, mutex, osv., ~1-2ms på skjermkortdrivers synkronisering av frames, switching, osv. Løsningen her er en "semi-realtime" kernel som øker kjernens interne scheduler og timer slik at forsinkelser blir rundt 0.01ms på bekostning av med CPU-last. Kun Linux tilbyr dette i dag av desktop-opertivsystemene.

3) Spillmotoren:

a) Her kommer spillmotorens interne flyt og styring inn, hvordan events leses av og hvordan game loop gir tilstandene sine videre til rendering. Forsinkelsen kan være helt opp mot 15-20 ms, men gjerne mye lavere også. Jeg tror 5-10 ms er vanlig her. I spill som kommuniserer med en server kan forsinkelsen her være betraktelig høyere.

b) I tillegg kommer tiden det tar å tegne selve bildet. Ved 60Hz er det 16.67 ms, så raskere tening kan gi kortere forsinkelse i dette leddet, men da trenger du en skjerm som kan følge med eller vil risikere tearing, eller du må hoppe over bilder.

4) Buffering: Brukere som har V-sync aktivert vil få et ekstra ledd med forsinkelse ettere tegning av bilde, som er opptil ett bildes forsinkelse (16.67ms ved 60 Hz). Løsningen er adaptiv synkronisering eller deaktivering av V-sync.

5) Skjermens input lag: Skjermer bruker i dag en del tid fra de får et bilde til det vises. Denne forsinkelsen er normalt konstant for en skjerminnstilling. Dette kan gi ~2-35 ms ekstra forsinkelse.

I praksis kan et bra spill gjerne ha 50ms fra museklikk til piksel på skjermen, som referert til her (denne sammenligningen tar ikke med hardware input).

 

Alt dette gir et par viktige observasjoner:

- Høyere skjermfrekvens gir bare bedre bildeflyt hvis spillet genererer nye tilstander raskt nok, ellers vil skjermen tegne flere like bilder.

- Men, raskere tegning kan gi kortere forsinkelse selv om game loop ikke er rask nok* og/eller skjermen ikke er rask nok(uten sync). Eks. 300 FPS på et spill med game loop i 60 Hz gir fem like bilder etter hverandre, men forsinkelsen i rendering(steg 3b) 3.33 ms mot 16.67 ms ved 60 FPS.

*) Under forutsetning at den er implementert non-blocking.

 

Men slik jeg har tolket det, så må koordinatene for hvor siktet befinner seg i det du trykker inn museknappen registreres på et bilde tegnet av skjermkortet.

En rekke spill bruker bare muskoordinatene og kamera til å generere en 3D-vektor og sjekker hvilke objekter denne treffer. Alternativt kan såkalt 3D picking brukes, hvor dybdebuffer og en fargebuffer fra forrige bilde brukes til å finne ut hva musen pekte på. Men det trengs ikke tegne et nytt bilde for å finne dette ut.

 

Om skjermkortet bruker 15ms på å tegne det bildet, må du nødvendigvis vente 15ms på det. Om skjermkortet bruker 5ms, så har du potensielt kortet inn din da i praksis reaksjonstid med 10ms. Reaksjonstiden din er jo selvfølgelig egentlig akkurat den samme, men tiden det tar før informasjonen kan sendes til spillserveren er kortet inn.

Riktig tenkt, bortsett fra at tiden det tar å tegne bare er en liten del av hele kjeden.

 

Og her kommer da videre innkorting av ms ping med "spill-routere" og "spill-nettverkskort" inn i bildet. Men også for eksempel at det er 1ms polling rate fra mus og tastatur. 1000Hz mus kalles det kanskje? Jeg regner med de fleste spillmus har det. Men om man gamer med ei "kontormus" fordi den kjennes god ut i hånda, så kan det være at man snyter seg selv for et par millisekunder.

Ja her er du inne på mitt punkt 1. 1000Hz mus betyr vel bare hvor raskt sensoren leses av, men det kunne vært interessant hvor raskt bevegelsene sendes. Men nå antar jeg at dyre spillmuser "tweaker" HID og kanskje sender raskere enn protokollen skulle tilsi.

 

Angående nettverksutstyr så kan det selvsagt spille en stor rolle. Selv alle "gigabit"-nettverkskort, -switcher og -routere yter ikke det samme. Her får du akkurat hva du betaler for. Hvis du bryr deg om latency så styrer du åpenbart unna trådløst nett. Men du skal i tillegg være klar over at selve nettverksstrukturen din kan spille inn. Hvis du f.eks. deler nettverk med noen som belaster et trådløst tungt eller har dårlig signal og du er koblet på kabel gjennom dette aksesspunktet så kan ytelse/stabilitet påvirkes av andres belastning. Derfor foretrekker jeg å bygge et internt nettverk av bare "dumme" switcher av god kvalitet, og så koble aksesspunkt ut fra dette slik at ustabile trådløse aksesspunkt med haugevis av crap-firmware ikke påvirker resten av nettverket.

 

Om dette er riktig, er det viktig å ha høy fps. Så 300fps på en 1080p skjerm er dobbelt så raskt som 150fps på en 1440p skjerm. Skal du rettferdiggjøre kjøpet er det altså denne 200Hz skjermen du skal ha.

Vel, ja og nei. Svart på under observasjoner^^.

 

Men så kommer vi også til et punkt der det kanskje er like greit å si at; "disse siste millisekundene er nok ikke de som avgjør om jeg vinner eller ikke.". Dersom du kan gi skjermen din 165fps, så er vi nede i 6,06ms, en stor og klar forbedring over de 16,7ms en skjermoppdatering på en 60Hz skjerm gir. Men si at du spiller mot en "galning" som har skrudd av V-Sync på sin 144Hz skjerm, og får 300fps. Han har jo bare ~2,7ms fordel på deg. Men sitter han i Brasil, så har han sikkert 20ms lenger ping. :p

 

Poenget med å vite hva man kan gjøre for å korte inn den effektive reaksjonstiden vår mot spillserveren. Er at når alt annet ellers er likt, så vet man at man ikke kunne gjort noe mer. Noen av oss ønsker imidlertid å fremdeles kunne legge skylden på utstyret, og da er det altså bare å skru på V-Sync. :p

Vel, lokalt så har nok spillet ~50ms, og over Internett til et annet kontinent så snakker du fort om 100ms eller mer på toppen av det. Noen få ms mindre er selvsagt fint, men skjermfrekvensen alene vil ikke løse det du snakker om.

Endret av efikkan
  • Liker 2
Lenke til kommentar

Takk efikkan, grundig og godt forklart som vanlig. (Tar like så godt å bookmarker denne posten jeg) :)

 

Jeg har innimellom stusset på hvorfor det er så vanskelig for enkelte spillutviklere å la spillet kjøre i så mange frames som brukerens PC klarer. Som med Skyrim for eksempel. Men også fremdeles leser man om spill som blir cappet på 30 eller 60 fps selv på PC. (De er vel utviklet på konsoll først da.) Er dette grunnet for treg game loop?

 

Game loop er for meg et nytt uttrykk. Er det slik å forstå at om en game loop er på 16,7ms, så vil et skjermkort som rendrer en frame på 3,3ms lage ett bilde, og så komme tilbake til, hva skal man kalle det? Enden på game loopen? Som fremdeles består av samme informasjon, og dermed blir neste bilde også identisk med det forrige? Altså man får 5 identiske bilder etter hverandre, og det vil man få også på en hypotetisk 300Hz skjerm? Og dersom man får game loopen ned i 5ms, så blir høyeste mulige fps med unike bilder 200? Jeg bare prøver å se om jeg har forstått riktig.

Lenke til kommentar

Jeg fikk forøvrig trøbbel med siste "Game Ready" driver. 358.87. Installerte direkte opp via geforce experience fra 358.78. Men fikk da ikke lenger lov til å ha på 2 monitorer på likt. Prøvde å reinstallere med å kjøre DDU først, men til ingen nytte. Tilbake på 358.78 fungere alt greit igjen. Skjønt der er jo en del rare ting. Har satt både skjerm nummer 2 og ROG Swiften på 120Hz og G-Sync er aktivert. Starter opp Borderlands, som jo nå er eldgammelt. Og får 144fps kappet. Trykker på hurtigknappen på skjermen og får den ned til 120Hz, og spillet blir nå kappet på 120fps. Men jeg synes jeg får utrolig dårlig utbytte av SLI. Bikker ofte under 120fps, gjerne ned i 70-90, jeg mener jeg vet jeg har 1440p skjerm, men Borderlands er jo fra 2009! Jeg tror jeg får samme ytelse uten SLI, har ikke giddet løpe rundt med FRAPS enda. Jeg bruker "Borderlands Advanced Settings" tool så det skal jo heve bildekvaliteten litt. Men 70-90fps!?

 

Jeg har kjørt med HW monitor på skjerm nummer 2, og så der at GPU usage lå på max 50 - 60% for begge. CPU'en hadde blitt maxet på 2 kjerner, resten lallet avgårde som om det var ingenting å gjøre. Må jeg ha opp frekvensen på CPU? Ligger på 4GHz nå, og lå aldri under mens jeg spilte. Er det Nvidia som ikke har giddet å lage SLI profil for et så gammelt spill, eller er det noe galt hos meg?

Lenke til kommentar

Jeg fikk forøvrig trøbbel med siste "Game Ready" driver. 358.87. Installerte direkte opp via geforce experience fra 358.78. Men fikk da ikke lenger lov til å ha på 2 monitorer på likt. Prøvde å reinstallere med å kjøre DDU først, men til ingen nytte. Tilbake på 358.78 fungere alt greit igjen. Skjønt der er jo en del rare ting. Har satt både skjerm nummer 2 og ROG Swiften på 120Hz og G-Sync er aktivert. Starter opp Borderlands, som jo nå er eldgammelt. Og får 144fps kappet. Trykker på hurtigknappen på skjermen og får den ned til 120Hz, og spillet blir nå kappet på 120fps. Men jeg synes jeg får utrolig dårlig utbytte av SLI. Bikker ofte under 120fps, gjerne ned i 70-90, jeg mener jeg vet jeg har 1440p skjerm, men Borderlands er jo fra 2009! Jeg tror jeg får samme ytelse uten SLI, har ikke giddet løpe rundt med FRAPS enda. Jeg bruker "Borderlands Advanced Settings" tool så det skal jo heve bildekvaliteten litt. Men 70-90fps!?

 

Jeg har kjørt med HW monitor på skjerm nummer 2, og så der at GPU usage lå på max 50 - 60% for begge. CPU'en hadde blitt maxet på 2 kjerner, resten lallet avgårde som om det var ingenting å gjøre. Må jeg ha opp frekvensen på CPU? Ligger på 4GHz nå, og lå aldri under mens jeg spilte. Er det Nvidia som ikke har giddet å lage SLI profil for et så gammelt spill, eller er det noe galt hos meg?

 

Har du prøvd å rulle tilbake til 355.82 driveren? Flere folk som opplever liknende, og bytte til eldre eller nyere driver løser problemene som regel.

Lenke til kommentar

 

Jeg fikk forøvrig trøbbel med siste "Game Ready" driver. 358.87. Installerte direkte opp via geforce experience fra 358.78. Men fikk da ikke lenger lov til å ha på 2 monitorer på likt. Prøvde å reinstallere med å kjøre DDU først, men til ingen nytte. Tilbake på 358.78 fungere alt greit igjen. Skjønt der er jo en del rare ting. Har satt både skjerm nummer 2 og ROG Swiften på 120Hz og G-Sync er aktivert. Starter opp Borderlands, som jo nå er eldgammelt. Og får 144fps kappet. Trykker på hurtigknappen på skjermen og får den ned til 120Hz, og spillet blir nå kappet på 120fps. Men jeg synes jeg får utrolig dårlig utbytte av SLI. Bikker ofte under 120fps, gjerne ned i 70-90, jeg mener jeg vet jeg har 1440p skjerm, men Borderlands er jo fra 2009! Jeg tror jeg får samme ytelse uten SLI, har ikke giddet løpe rundt med FRAPS enda. Jeg bruker "Borderlands Advanced Settings" tool så det skal jo heve bildekvaliteten litt. Men 70-90fps!?

 

Jeg har kjørt med HW monitor på skjerm nummer 2, og så der at GPU usage lå på max 50 - 60% for begge. CPU'en hadde blitt maxet på 2 kjerner, resten lallet avgårde som om det var ingenting å gjøre. Må jeg ha opp frekvensen på CPU? Ligger på 4GHz nå, og lå aldri under mens jeg spilte. Er det Nvidia som ikke har giddet å lage SLI profil for et så gammelt spill, eller er det noe galt hos meg?

 

Har du prøvd å rulle tilbake til 355.82 driveren? Flere folk som opplever liknende, og bytte til eldre eller nyere driver løser problemene som regel.

 

 

Jeg prøvde ikke den, var vel på 355.80. Men tror Borderlands har vært slik hele tiden. Jeg tar å fyrer opp litt FireStrike, hvor mye skal jeg forvente å få med HW i min signatur?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...