Gå til innhold

Guide: Nvidia G-Sync (Ekstra)


Anbefalte innlegg

Videoannonse
Annonse

Gelbear: Det er jo det v-sync gjør, den låser maks antall fps en GPU skal produsere tilsvarende oppdateringsfrekvensen på skjermen din. Har du en 60HZ skjerm, vil GPU ikke produsere mer enn 60fps - selv om det ville klart mer. Så om har du en 144HZ skjerm vil GPU låses til å ikke produsere over 144fps. Problemet der kommer jo hvis du har et krevende spill hvor du har justert grafikkinnstillingene høyt. Da klarer kansje ikke GPU bestandig å produsere 144fps og skjermen vil begynne å tegne samme bilde på nytt og da kommer det som kalles "stuttering", akkurat som forklart i artikkelen.
Hadde derimot alle skjermkort klart å produsere en bildeflyt tilsvarende oppdateringsfrekvensen til skjermen hadde vi ikke hatt behov for G-sync.

 

Edit: Det går heller ikke å si til GPU at den SKAL produsere f.eks. 144fps samma f...

Blir jo som å si til bilen din at den skal ha samme akselerasjon og toppfart uansett hvordan gir den står i og uansett hvor tungt lass du henger etter den.

Endret av Mats E.
Lenke til kommentar

For en som ikke er helt med på teknologien bak dette, det kommer kanskje frem i artikkelen for de som har greie på slikt. Er det slik å forstå at skjermen min sannsynligvis støtter dette allerede gjennom LVDS? Kan jeg kjøpe en ny skjerm i dag som senere kan få støtte for dette? Har nVidia plantet dette chippen i forskjellige monitorer i en årrekke allerede?

 

På nåværenede tidspunkt er det kun Asus 24" LED VG248QE Nvidia G-Sync som støtter g-sync, men det skal til sommeren komme skjermer som støtter g-sync fra flere forskjellige merker. Skal også være mulig installere g-sync brikken i noen utvalgte skermer.

Lenke til kommentar

g-sync er ikke nødvendig hvis skjermkortet kan generere bilder fortere enn skjermen kan vise de *selv i de verste mest kompliserte scenene. heller ikke hvis skjermen har så høy refresh rate at det er mye raskere enn skjermkortet, så det er minimal ventetid til neste bilde kan vises. jeg liker løsningen uansett, en innovativ "out of the box" tenkning. eneste som kan gå galt er at de sier seg fornøyd med god fps i de enkle partiene, og ikke bry seg med å forbedre det der det virkelig teller, når det er mye action

Lenke til kommentar
Gjest Slettet-QB4VTZbn

Så lenge skjermkortet vet oppdateringsfrekvensen til skjermen forstår jeg fortsatt ikke, på tross av artikkelen, at nVidia ha en fysisk brikke inn i skjermen.

 

Metoden: Draw -> buffer -> Screen burde funket. (mat skjermen med komplette bilder i fast takt, dvs. 'g-sync' i skjermkortet).

 

På meg virker det nå mer som en greie for å "tvinge" folk til å kjøpe/bruke nVidia skjermkort på neste maskin når de sitter med en nVidia "tilpasset" skjerm.

Hvorfor kan ikke Nvidia ta seg sammen og inkludere triple buffered vsync for d3d i sine grafikkdrivere? Dette er jo noe spillere har etterspurt i minst 10 år, og t.b.vsync funker mye bedre enn vanlig vsync, inkludert mindre lagging og mer stabil framerate. Jeg finner i hvert fall vanlig vsync temmelig ubrukelig, mens t.b.vsync funker helt utmerket til mitt bruk (spiller på en 60hz 1440p IPS skjerm). Selvfølgelig er det mer gunstig for Nvidia å i stedet tilby en chip til 1500 kr. Hva med å tilby begge deler Nvidia? Jeeez... (Jeg forstår G-sync er en enda bedre løsning teknisk sett, men er dog upraktisk og dyr.)

Endret av Slettet-QB4VTZbn
Lenke til kommentar

"Det er ting vi kan gjøre med musen også, sier Petersen.

Noe mer kan han ikke si, men det er naturlig å tenke seg at når samme aktør bearbeider forsinkelsen i både skjermkortet og skjermen, kan forsinkelsen også manipuleres ut mot både mus og tastatur. "

 

Jeg er redd artikkelen blander sammen ting her. Ingen deler av G-sync teknologien har relevans for input av user events til spill.

 

Det som sansynligvis menes er at man i neste versjon av G-Sync vil kunne oppdatere bare deler av skjermen. Slik at når musen beveges, trenger ikke hele bildet sendes på nytt, bare den delen som er endret.

Musen befinner seg normalt i et eget compositing lag, hvor markøren flyttes ved å endre koordinatene til markørbitmappet. Musbevegelsen skjer asynkron i forhold til når spillet er ferdig med å rendre en frame.

La oss si at musmarkøren flyttes med 60fps og spillet oppdateres i 50 fps. Med Gsync som det er i dag vil da musen rekke å starte en ny overføring til skjermen, siden den alltid flyttes like før spill-renderingen er ferdig. I praksis medfører dette at spillet da vil måtte vente til hele det gamle bildet med oppdater musmarkør er overført til skjermen før det nye bildet kan overføres, og synlig fps faller til 30fps.

Hvis neste generasjon av Gsync tillater å oppdatere deler av bildet vil dette problemet være løst. Men det vil også vanskeliggjøre strobed backlight [LightBoost], som ikke er så heldig.

Lenke til kommentar

Hva er bra med/ fordelen medtriple buffered vsync for d3d? Mac34?

 

Med triple buffering har skjermkortet et ekstra backbuffer, så istedet for å vente på neste vsync når framraten er lavere enn refresh raten og neste frame som skal vises er ferdig rendret kan skjermkortet forsette å jobbe. Skjermkortet kan da f.eks rendre 55FPS istedet får 30FPS med double buffer vsync.
Det gir høyere gjennomsnitt framerate, men skjermkortet må forsatt vente på vsync intervallene for å vise et nytt frame og de oppdateringene kommer da ujevnt som går utover input lag og generelt glattheten.
Lenke til kommentar

"Det er ting vi kan gjøre med musen også, sier Petersen.

Noe mer kan han ikke si, men det er naturlig å tenke seg at når samme aktør bearbeider forsinkelsen i både skjermkortet og skjermen, kan forsinkelsen også manipuleres ut mot både mus og tastatur. "

 

Jeg er redd artikkelen blander sammen ting her. Ingen deler av G-sync teknologien har relevans for input av user events til spill.

 

Jeg tror du missforstår. Er det ikke snakk om å få ned inputlag? Er det jeg som missforstår?

Lenke til kommentar

Hvorfor kan ikke Nvidia ta seg sammen og inkludere triple buffered vsync for d3d i sine grafikkdrivere? Dette er jo noe spillere har etterspurt i minst 10 år, og t.b.vsync funker mye bedre enn vanlig vsync, inkludert mindre lagging og mer stabil framerate. Jeg finner i hvert fall vanlig vsync temmelig ubrukelig, mens t.b.vsync funker helt utmerket til mitt bruk (spiller på en 60hz 1440p IPS skjerm). Selvfølgelig er det mer gunstig for Nvidia å i stedet tilby en chip til 1500 kr. Hva med å tilby begge deler Nvidia? Jeeez... (Jeg forstår G-sync er en enda bedre løsning teknisk sett, men er dog upraktisk og dyr.)

 

Det står heller på Microsoft som vel forsatt forbyr å kunne tvinge i triple buffering i driveren. I D3D er det applikasjonen som skal be om det.

Endret av MistaPi
Lenke til kommentar

 

 

Med triple buffering har skjermkortet et ekstra backbuffer, så istedet for å vente på neste vsync når framraten er lavere enn refresh raten og neste frame som skal vises er ferdig rendret kan skjermkortet forsette å jobbe. Skjermkortet kan da f.eks rendre 55FPS istedet får 30FPS med double buffer vsync.
Det gir høyere gjennomsnitt framerate, men skjermkortet må forsatt vente på vsync intervallene for å vise et nytt frame og de oppdateringene kommer da ujevnt som går utover input lag og generelt glattheten.

 

 

Takk for svar!

 

Så hvis man har rask nok hardware, så trenger man som regel ikkje tripple buffer?

Lenke til kommentar

 

Nei. Så lenge skjermkortet klarer å holde følge med refresh raten til skjermen trenger man heller ikke (som andre her har nevnt) gsync.

 

Jøss! Det svaret der bør ko være klistret i føste post i en eventuell g-sync tråd!

 

Da trenger jeg kanskje ikkje g-sync alikevel :D Ikkje at jeg har noen problemer med tearing og lagg heller.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...