Gå til innhold

Sniktitt: Nvidia G-Sync


Anbefalte innlegg

 

Tja sikkert greit for ungdommen, men jeg kan ikke huske å noensinne ha opplevd riving, og hakking legger jeg stadig sjeldnere merke til.

Men så er ikke jeg den personen som klager på lag når bildeflyten dypper under 120fps heller.

 

Nei denne oldingen vokste opp med Doom og Quake med en framerate du kunne notere med ett siffer. Et gjennomsnitt på 30fps ble ansett som en nærmest uoppnåelig drøm:-)

Og vi var vant til å bytte 5.25" floppier både én og to ganger mellom scener.

 

Så kjære barn. Dere som klager på lag i BFx og load times i Skyrim, dere aner ikke hvor godt dere egentlig har det!!! :-)

 

Hilsen bestefar.

 

Det gleder mitt hjerte å se en skikkelig mann i denne barnehagen!

 

Tommel opp for gamlingene!

Hvem er dere som kaller dere gamlinger? Doom? Pøh!

 

Jeg startet min gamerkarriere i 1983/84 på min ubeskrivelig heftige Philips G7000. FPS? Hvem diskuterte slikt?

Lenke til kommentar
Videoannonse
Annonse

 

I know the feeling...

Min første var en C=64 på 0,985 MHz.

 

Men må innrømme at ting har forandret seg en smule siden den gang.

 

Så lenge jeg klarer å få 30FPS i spill som jeg spiller så kan jeg personlig ikke klage.

 

Jeg er fullstendig klar over at det følgende kan virke motsigende,men...*Pytt* *Pytt*

 

For min del så trengs ikke Ultra-High-Def. og/eller Ultra-Realistic-Graphics for at et spill skal være morsomt og hektende.

Men er muligheten der så vil jeg se hvor langt jeg kan strekke det før maskinen virkelig begynner å slite.

 

Som det står i artikkelen her så får jeg som AMD-Radeon-kort eier ikke noe nytte av denne teknologien per dags dato.

 

Men jeg klarer meg fint med V-Sync inntil videre.

 

Når det gjelder det som artikkelen sier om skjermkort så har jeg en tommel-finger-regel som jeg har fulgt så langt...,og siden jeg ikke har brukt eyefinity,eller har noen videre faste planer om det i den nærmeste fremtid så fungerer teorien min så langt.

For meg personlig i hvert fall.

 

Og den lyder som følger...:

Nr.1. Skjermkortet bør ha 2X minnemengden som Skjerm-Oppløsningen trenger på et gitt FPS-Tall for å ta høyde for eventuelle settings i windows og spill (Anti-Aliasing,Anisotropic filtering,etc,etc...).

Nr.2. Maskinen bør ha 2X G-RAM-Mengden i RAM.

 

Siden Windows-Experience-Ratingen setter Del-Resultatet til MAX 5,9 for RAM under 64bit med kun 4GB innstallert så kan jeg bruke det som et eksempel.

 

Om Skjerm-Oppløsningen trenger 1024MB.

Da bør Skjermkortet ha 2048MB.

Og Maskinen bør da ha 4096MB.

 

NB!...: Det var et eksempel på Minimums-Verdier.

 

 

Feel free to disagree...

 

 

PS...: Før du trakker teorien min ned i sølen,så vil jeg påpeke at jeg er fullstendig klar over at GPU'en setter visse grenser regardless om man har 1GB eller 10GB G-RAM.

Det samme kan man si om CPU vs RAM til en viss grad.

Mer RAM er jo selvfølgelig bra å ha om man skal gjøre flere ting samtidig,og det samme gjelder jo kraftigere CPU også da selvsagt.

 

 

PS:PS...: Takk for at du/dere tok deg/dere tid til å lese dette.

Lenke til kommentar

Syns det er rart dere ikke nevner input lag med vsync. For meg er dette det største problemet med vsync, og grunnen til at jeg alltid har slått det av. Jeg vet at mange ikke legger merke til det, men det er også mange som synes det blir uspillbart. Og ja, det gjelder også om skjermkortet aldri dropper under 60 fps.

 

Har også spilt siden 80-tallet, men det betyr ikke at jeg ikke ønsker forbedringer :-)

Lenke til kommentar

Dette vil øke verdien/levetiden av ditt/dine skjermkort, noe som fører til at du kjøper skjermkort sjeldnere, så nvidia trenger å kompensere for dette, derfor er ikke 2500kr så gale om du ser på det i det lange løp.

 

Ellers kan bedre levetid/verdi føre til at flere går fra AMD til nvidia, noe som fører til at AMD må senke prisene..

 

Så til sist sitter vi igjen med billigere skjermkort eller lengre levetid, og høyere cost/value.

 

Why are you not happy ?!!!

Levetiden vil være like lang som før, eneste forskjell er at du kan få Vsync med mindre inputlag på hvilken som helst framerate.

Det dette derimot ikke vil fikse er inputlag skapt av spillmotoren og Direct3D som følge av å kjøre på lavere framerates, det er lett å merke at spillet har inputlag selv når du er over 60 fps.

Lenke til kommentar

Har også spilt siden 80-tallet, men det betyr ikke at jeg ikke ønsker forbedringer :-)

Misforstå meg rett, jeg elsker forbedringer. I mine øyne går ting alt for sakte.

 

I og med at vi snakker skjermer her, 2560x1440@120Hz, gjerne TN om nødvendig, er noe jeg kunne tenke meg, og ikke koreaskjermer og alt det der. Kjøpt i Norge med norsk garanti, fra en kjent leverandør.

 

Og store spillstudio som fokuserer kun på PC og å presse utstyret, uten å ta hensyn til konsoller.

 

Like the good old days...

  • Liker 1
Lenke til kommentar

Levetiden vil være like lang som før, eneste forskjell er at du kan få Vsync med mindre inputlag på hvilken som helst framerate.

Det dette derimot ikke vil fikse er inputlag skapt av spillmotoren og Direct3D som følge av å kjøre på lavere framerates, det er lett å merke at spillet har inputlag selv når du er over 60 fps.

Mja, levetiden vil jo være lengre fordi G-sync teknologien vil gi deg en bedre opplevelse, slik at du ikke føler trangen for å bytte skjermkort med det første.

Lenke til kommentar

Jeg fatter ikke hvorfor Nvidia kan tilby en skikkelig triple buffered vsync funksjon for D3D i sine grafikkdrivere? Dette har gamere forespurt i 10 år nå, og fremdeles må man bruke RivaTuner's d3doverrider for å få t.b.vsync. Problemet er at d3doverrider fungerer ikke i windows 8 (kun i compatibility mode som skaper diverse nye problemer).

Lenke til kommentar

Jeg lurer på noe. NVIDIA har jo en teknologi som heter adaptive V-sync. Det slår av V-sync når du går under 60 fps, og på hvis du går over. Fungere ikke denne teknologien i det hele tatt siden denne er så mye bedre...?

 

Adaptive V-sync sørger jo for V-sync når det trengs, og hindrer problemene du får med V-sync når du går under 60 fps

Lenke til kommentar

 

 

Har også spilt siden 80-tallet, men det betyr ikke at jeg ikke ønsker forbedringer :-)

Misforstå meg rett, jeg elsker forbedringer. I mine øyne går ting alt for sakte.

 

I og med at vi snakker skjermer her, 2560x1440@120Hz, gjerne TN om nødvendig, er noe jeg kunne tenke meg, og ikke koreaskjermer og alt det der. Kjøpt i Norge med norsk garanti, fra en kjent leverandør.

 

Og store spillstudio som fokuserer kun på PC og å presse utstyret, uten å ta hensyn til konsoller.

 

Like the good old days...

Helt enig, utviklingen går veldig sent. Vi burde hatt 1440p@120hz for 1-2 år siden.

Lenke til kommentar

Jeg lurer på noe. NVIDIA har jo en teknologi som heter adaptive V-sync. Det slår av V-sync når du går under 60 fps, og på hvis du går over. Fungere ikke denne teknologien i det hele tatt siden denne er så mye bedre...?

 

Adaptive V-sync sørger jo for V-sync når det trengs, og hindrer problemene du får med V-sync når du går under 60 fps

 

Screen tearing oppstår ikke bare når frameraten er over refresh raten til skjermen, men uansett når frameraten ikke er synkronisert med refresh raten. Så når adaptive vsync skrur av vsync når frameraten synker under refresh raten får man tearing.

Lenke til kommentar

G-sync vil ikke endre måten bildet tegnes opp på skjemen på. Det vil fremdeles gå fra toppen og ned.

Dette tar 1/60s (16,7ms) på en 60hz skjerm, 1/120s (8,3ms) på en 120hz skjerm og 1/144s (6,9ms) på en 144hz skjerm.

 

G-sync kombinerer det beste med v-sync med det beste uten v-sync. Dvs man slipper tearing og stuttering.

 

Dersom man har v-sync på en 60hz skjerm og spiller med heftig nok maskinvare til å klare 60FPS ved maks kvalitet kontinuerlig gir G-sync ingen effekt.

 

Med en kjappere skjerm vil G-sync la skjermen følge med også over 60FPS/hz, pluss at input lag potensielt reduseres fra 16,7ms til 6,9 eller 8,3ms (begrenset av spillmotorens egne lag).

 

Der G-sync utgjør størst forskjell er imidlertid om man ligger i området mellom 30 og 60 FPS. Da har man enten tearing uten v-sync, eller stuttering med v-sync.

Med v-sync har man både visuell stuttering og 'input lag stuttering' når maskina ikke klarer 60FPS kontinuerlig og går ned til 30FPS.

Med G-sync vil skjermen være i sync hele tiden så lenge man er over 30FPS/hz, og alt vil se smooth ut, selv om FPS varierer mellom 30 og 144. (30FPS vil fremdeles være lavt :))

Dermed får man en smooth spillopplevelse på billigere maskinvare.

 

G-sync er fint for film, som nå kan vises i sin originale framerate inkl 24, 25 og 48 FPS.

G-sync er også topp for emulering av gamle spill, f.eks arcadespill som kom med alle mulige slags oppfriskningshastigheter, samt gamle datamaskiner og konsoller som brukte PAL, hvor 50hz endelig kan realiseres smertefritt uten tearing eller hastighetsendring. Input lag vil reduseres her også.

 

En ulempe med G-sync er at det koster penger. Prisforskjellene i Norge nå vil ikke vare. Det anslås mellom $70-$120 kostnad mer for denne versjonen i USA nå, og mindre i fremtiden, spesielt hvis det slår an.Ved store volum kan den dyre FPGA-brikken på kortet erstattes med en vanlig ASIC, etc.

G-sync kortet erstatter monitorens scalerings-hardware. Skalering til monitorens oppløsning skjer nå på GPU-en. Dette sparer inn litt av merkostnaden.

 

En annen ulempe er at den ikke går under 30hz. Da vil bildet gjentas. For f.eks 24fps video er ikke dette noe problem da det vil vises perfekt i 48hz, men for spill vil G-sync ha stuttering når det faller under 30fps.

 

Og foreløpig støttes kun Displayport, og evt. adaptere fra andre standarder funker ikke. (Begrenser surround gaming foreløpig)

Noen påstår det kun vil funke med displayport pga måten vblank (VBI) håndteres i de andre standardene, andre sier det kan komme støtte for dagens DVI og HDMI-standarder også, jeg vet ikke..

 

Og så er det Nvidias produsenteide løsning da, inntil videre hvertfall.

 

Les mer på blurbusters.com og anandtech.com.

  • Liker 2
Lenke til kommentar

Jeg fatter ikke hvorfor Nvidia kan tilby en skikkelig triple buffered vsync funksjon for D3D i sine grafikkdrivere? Dette har gamere forespurt i 10 år nå, og fremdeles må man bruke RivaTuner's d3doverrider for å få t.b.vsync. Problemet er at d3doverrider fungerer ikke i windows 8 (kun i compatibility mode som skaper diverse nye problemer).

Hmm, jeg har ikke støtt på noen problemer(ennå). Hvilke problemer er det snakk om?
Lenke til kommentar

Har bestefar fått litt alzheimer med åra også?, var ikke så mye bytting av 5.25-disker i quake ;)

 

AtW

 

Stemmer at det ikke var floppier til Doom eller Quake, i dette tilfellet tenkte jeg på de eldre Quest spillene, på begynnelsen av 90 tallet. Når man byttet scene måtte man gjerne bytte til floppy "x", la den loade noen minutt for deretter å bytte til floppy "y" og fortsette loadingen.

Lenke til kommentar

 

Heisann!

 

Dere burde kanskje nevne at én av ulempene med G-sync er at 3D-applikasjonene dere kjører bare kan kjøres i fullskjerm-modus, ikke 'borderles windowed mode', eller windowed mode.

 

Bare fullscreen

 

tror ikke det er sð nøye siden man stort sett altid spiller i fullscreen.

du gjør kanskje det. men meg og veldig mange andre spiller i "Borderless window" da det oppleves mye bedre. Spesielt i scenarioer hvor man har 2 skjermer er borderless-window et must, slik at man kan gå over til den andre skjermen uten å måtte minimere spillet.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...