Gå til innhold

Denne Nvidia-brikken skal gjøre slutt på lagg i spill


Anbefalte innlegg

Videoannonse
Annonse

Overskriften må fikses på ja. Ville egentlig antatt at det vil være en anelse høyere inputlag pga ennå et lag ("layer") med bildeprosessering og signalsynkronisering.

 

Kan artikkelforfatter vennligst lese seg inn på saken? Teknologien handler om å justere bildeoppdateringsfrekvensen på skjermen til det som blir servert av skjermkortet, på folkemunne vil "Hz" på skjermen være det samme som "fps"en skjermkortet klarer å levere.

 

De har satt et intervall hvor skjermen ikke vil kjøre lavere enn 30Hz, og ikke høyere enn 144Hz på bildeoppdatering. Her har artikkerforfatter også misforstått - teknologien fungerer nemlig KUN på skjermer som SPESIFIKT støtter G-Sync og ikke nødvendigvis hele frekvensintervallet.

  • Liker 1
Lenke til kommentar

det er sånne artikler som dette som får meg til å besøke HW.no mindre og mindre. og det er neimen ikke lenge før den havner samme sted som itavisen gjorde i min daglige surferunde. godt tek har gamer, amobil og diskusjon å lene seg på. lagde forøvrig en tråd som peker til anand på lørdag. og den har bare fått 99 visninger. keep up the "good" work HW, så får dere en unik hitt mindre pr dag.

  • Liker 5
Lenke til kommentar

Det var voldsomt mange ord i artikkelen for å si "variabel refresh rate" :) Ikke vær redd for mangel på IPS, allerede på vei. Problemet er vel mer lag på høy Hz med IPS, men vi får se... SXRD-projektoren takler 240Hz output (mer for å gi behagelig 3D), så teknologien er der.

Lenke til kommentar

Dette høres ut som en god idé (var vel et par dager siden jeg hørte om det første gang). Selv bruker jeg alltid vsync og setter ned kvalitetsinnstillingene og evt. oppløsning om nødvendig slik at skjermkortet klarer minimum 60 bilder per sekund (evt. 50, og setter skjermen til 50 Hz).

Lenke til kommentar

Resultatet er at skjermen og grafikkprosessoren ikke klarer å bli helt enige, og det oppstår feil i bildet som tearing, et fenomen der bildet blir delt på langs, og grafikken ikke stemmer overens med hverandre.

Tearing oppstår fordi bildet oppdateres fra skjermkortet mens skjermen holder på med å tegne det

 

 

I tillegg får du nok et problem dersom du kjører to eller flere skjermkort sammen, stuttering, der rekkefølgen på bildene som gis ut fra skjermkortene ikke alltid stemmer.

SLI og CrossFire gir aldri bilder i feil rekkefølge. Problemet med stuttering er forårsaket av at primærkortet alltid må stoppe opp når de andre kortene er ferdig med et bilde, som gjør at intervallet mellom bildene aldri blir helt jevnt. G-sync vil hindre tearing, men vil ikke i følge dokumentasjonen justere bildeflyten (så vidt jeg kan se).

 

G-sync kan derimot synkronisere flere ulike skjermer, men dette er ingen nyhet.

 

 

Hvor mange ms input lag regner de med? Går ut i fra de ikke kommer ned mot CRT.

Som mange har nevnt, dette har ingenting med input lag. La meg nevne hovedtrekkene i forsinkelse i et spill:

- Device input (0.7 ms for PS/2, ~10 ms for HID(USB), ~30 ms for HID(Bluetooth)).

- OS Overhead (~1ms for Windows, Linux, <0.01ms for Linux low latency)

- Spillmotor: eventprosessering/game loop og fysikkberegninger. (avhengig av arkitektur, 1ms - ??)

- Triple buffering

- OpenGL: (implementasjonsavhengig) Trippel bufring skal gi tilnærmet null forsinkelse så lenge fps er høyere enn monitorfrekvens, og veksle mellom 0ms og 1/monitorfrekvens når fps bikker under monitorfrekvens.

- Direct3D: Trippel bufring skal i teorien være uproblematisk når fps er høyere enn monitorfrekvens, men fungerer dårlig i Direct3D siden alle tre bildene i "køen" skal vises, til forskjell fra tradisjonell trippel bufring som vil forkaste bilder som blir overflødige.

G-sync skal teoretisk kunne "eliminere" behovet for en trippel buffer(og bruke dobbel). Det blir interessant å se hvorvidt dette påvirker Direct3Ds buffer-lag.

I utgangspunktet vil G-sync kunne eliminere behovet for trippel bufring

- Monitor input (dette de fleste kaller input lag), ~0 ms for CRT, ~5-35 ms for div. LCD. Dette er i bildeprosesseringen internt i skjermen.

 

Hvorfor står det da spesifikkt i selve overskriften at det er input lag som skal "fjernes"?

Fordi artikkelforfatter ikke har peiling som vanlig.

 

 

Det vil ikke fjerne microstuttering som forekommer av ujevne tidsintervaler mellom frames.

Helt korrekt. Det er som nevnt over to primære kilder til stuttering(OS overhead, og eventuelt multi-GPU), G-sync vil gjøre ingenting med noen av de.

 

 

Leste litt på anandtech og jeg ser ingenting om input lag der. Hvor får de det fra i den norske versjonen?

 

Sånn som jeg har skjønt det så er det rett og slett bare variabel vsync-frekvens på skjermen. (Litt forenklet forklart)

Helt riktig, variabel V-sync og synkronisering på tvers av monitorer. Så enkelt kunne HW sagt det, og alle ville forstått det. :tease:

  • Liker 5
Lenke til kommentar

G-sync kommer bare til å finnes på TN-skjermer (den dårligste men rakseste versjonen av LCD

Ja hvorfor det?

 

Jeg ser ingen tekniske begrensninger til hvorfor dette ikke skulle kunne brukes på andre skjermteknologier, inkl. OLED og plasma for den del. Det vil nok komme først til TN fordi der er størst etterspørsel, men tearing er også et plagsomt problem for video/film.

 

BTW: TN er ikke dårligst men raskest, det er mye mer komplisert enn det. TN er raskere, kan ha litt bedre sortnivå enn IPS (men dårligere enn VA), kan være på nivå med billig-IPS på fargerom og gradering, og er betydelig mer behagelig å lese tekst på pga. IPS har en "krystalliserende overflate". Ingen LCD-skjerm er suveren til alt, så det er ikke dumt å ha én IPS-skjerm og én TN-skjerm.

  • Liker 1
Lenke til kommentar
Gjest Slettet-RnjNn5NbHl

 

 

Gsync kommer bare til å finnes på NT skjermer (den dårligste men rakseste versjonen av LCD

Du mener vel TN, og hvor har du dette fra?

Ja, og jeg har det fra en youtuber som var på nvidia konferansen, men det kommer flere type skjermer etter hvert, men ikke fra start

Lenke til kommentar

Det må da ligge støtte for dette i 27" av samme skjerm, eller? Har denne selv og kunne godt tenkt meg å skrudd den opp for å sette inn en sånn brikke om prisen ikke blir absurd, men det å kjøpe ny skjerm kan de bare glemme spesielt når jeg tilsynelatende sitter på en skjerm som burde kunne støtte dette allerede. Snakker da om VG278HE.

Lenke til kommentar

Jeg synes dette er ganske revolusjonerende. Endelig noen som faktisk gidder å ta buk på et gammelt problem som har plaget oss i flere tiår - hvis dette da funker som de sier det skal.

 

Er litt morsomt å lese kommentarene på Kotaku sin nettside. Omtrent 90% av kommentarene mener dette er en 'gimmick' fra Nvidia sin side, og er i bunn og grunn helt ubrukelig teknologi. De kan ikke ta mer feil.

 

Ser flere som skriver at det å kjøpe en 120 Hz skjerm vil fikse problemet. Dette stemmer ikke. Har du en høyere FPS enn oppdateringsfrekvens, så vil du få screen tearing. Har du mindre FPS enn oppdateringsfrekvensen, så vil du fortsatt få screen tearing. Grunn til at det føles bedre ut på 120 Hz er fordi det er nærmere gjennomsnitts FPSen at det blir ikke et like stort problem som om du hadde en 60 Hz skjerm og spiller med 200 FPS.

 

Jeg personlig gleder meg sykt til denne teknologien!

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...