Gå til innhold

FreeSync rykker stadig nærmere skrivebordet ditt


Anbefalte innlegg

 

Input-lag er som flere av oss vet prosesseringsforsinkelse internt i skjermen. Som du er inne på, litt av hensikten med adaptiv synkronisering er borte om det kommer et ekstra ledd med forsinkelse i tillegg.

 

Fortell meg gode mann(?), hvorfor blir FreeSync billigere enn G-Sync? Det trengs nøyaktig samme maskinvare, og begge er implementasjoner av samme standard.

Poenget med Adaptive Sync er jo ikke å få lavere input-lag, men heller så skjermen oppdateres samtidig med kildematerialet (uansett om det er video eller 3D-grafikk.)

Ja nettopp. Derfor har dette ingen innvirkning på input lag som jeg sa.

Lenke til kommentar
Videoannonse
Annonse
efikkan, den 26 Sept 2014 - 19:39, sa:efikkan, den 26 Sept 2014 - 19:39, sa:

 

Kirchhoff, den 26 Sept 2014 - 19:30, sa:Kirchhoff, den 26 Sept 2014 - 19:30, sa:

En del av inputforsinkelsen er pga prosessering, som du sier ja. Men Input lag til en pc er mye mer enn det. Vertical sync med dagens faste skjermoppdateringsfrekvens øker forsinkelsen fra brukeren til skjerm relativt mye. G-sync har lovet å redusere denne forsinkelsen kraftig med variabel skjermoppdateringsfrekvens.

Slik jeg har forstått så er det ved å oppdatere display med en gang nytt bilde er klart, i steden for å vente til neste. Det blir altså mindre input lag.

 

*I steden for å vente til det har gått 1/60 sekund siden sist skjerm ble oppdatert.

Da bruker du feil betegnelser. Input-lag er forsinkelse fra input til det vises på skjermen, dvs. intern prosessering. Alle forsinkelser som skyldes PC-siden kalles ikke input-lag. (du kan argumentere for at device I/O kan kalles en form for input-lag, men det er isåfall en annen klasse)

Se på denne oversikten så får du et overblikk over de store faktorene. Hvis du ønsker mer utdyping er det bare å spørre.

 

Feil betegnelser? Hvorfor prøver du å flisespikke? Det du sier stemmer heller ikke. En skjerm har mer forsinkelse enn det som kommer av prosessering. Men det er ikke relevant. Fra wiki:

Sitat

 

In video games, input lag is either the delay between the television or monitor receiving a signal and it being displayed on the screen[1] (see display lag below), or the delay between pressing a button and seeing the game react.[2]

 

Mindre input forsinkelse uten tearing er det eneste salgsargumentet som virkelig appelerer til meg.

(Mindre input forsinkelse enn med vsync på altså, siden det er det som tradisjonelt måtte til for å få til tearfree gaming)

 

 

EDIT: legger ved hva som fører til input forsinkelse. Legg merke til den ekstra rosa forsinkelsen som kommer pga vsync:

longlag-300x206.png

Endret av Kirchhoff
Lenke til kommentar

Freesync gjr akkurat det samme som G-sync, bare at Freesync er mye billigere, både å utvikle og i deler. og ja, det blir ikke noe input lag, eller hvis det blir det, veldig lite.

Fortell meg gode mann(?), hvorfor blir FreeSync billigere enn G-Sync? Det trengs nøyaktig samme maskinvare, og begge er implementasjoner av samme standard.

Dette er det alle på HW.no tror. Hvertfall de som tror de vet noe.

nVidia = Grådige, lite fremtidsrettet, vil lage lukkede løsninger, små fremskritt, melke markedet

AMD = Nyskapende, prispressende, konkurransedyktig, kjøper det likevel om det er dårligere for å støtte de

  • Liker 1
Lenke til kommentar

 

 

 

 

Input-lag er som flere av oss vet prosesseringsforsinkelse internt i skjermen. Som du er inne på, litt av hensikten med adaptiv synkronisering er borte om det kommer et ekstra ledd med forsinkelse i tillegg.

 

Fortell meg gode mann(?), hvorfor blir FreeSync billigere enn G-Sync? Det trengs nøyaktig samme maskinvare, og begge er implementasjoner av samme standard.

Poenget med Adaptive Sync er jo ikke å få lavere input-lag, men heller så skjermen oppdateres samtidig med kildematerialet (uansett om det er video eller 3D-grafikk.)
Ja nettopp. Derfor har dette ingen innvirkning på input lag som jeg sa.

Når alternativet er Vsync har dette definitivt innvirkning på input lag. Hvis du kjører uten Vsync vil ikke FreeSync/G-Sync gi lavere input lag, men slipper da tearing.

Lenke til kommentar

Feil betegnelser? Hvorfor prøver du å flisespikke? Det du sier stemmer heller ikke. En skjerm har mer forsinkelse enn det som kommer av prosessering. Men det er ikke relevant. Fra wiki:

Sitat

 

In video games, input lag is either the delay between the television or monitor receiving a signal and it being displayed on the screen%5B1%5D (see display lag below), or the delay between pressing a button and seeing the game react.%5B2%5D

 

Det er en direkte motsigelse i det du sier, du ser det er to helt forskjellige definisjoner der. Det er sant nok at enkelte kaller all responstid fra museklikk til skjermbilde for "input lag", men det er ganske misvisende siden mye av dette har ingenting med input å gjøre. I tillegg har du de som kaller responstid for input lag, men det er du med på er tullete?

 

Mindre input forsinkelse uten tearing er det eneste salgsargumentet som virkelig appelerer til meg.

(Mindre input forsinkelse enn med vsync på altså, siden det er det som tradisjonelt måtte til for å få til tearfree gaming)

 

 

EDIT: legger ved hva som fører til input forsinkelse. Legg merke til den ekstra rosa forsinkelsen som kommer pga vsync:

longlag-300x206.png

Jeg har aldri påstått at Vsync ikke fører til forsinkelse, hvis du ser på punkt 4 i plansjen min så ser du det. Vync med triple buffering er en ganske enorm forsinkelse faktisk, og virkelig ille for Direct3D som har kjeder med tre bilder.

 

Men det er likevel misvisende å hevde adaptiv synkronisering fjerner forsinkelse, for utgangspunktet er ingen forsinkelse og VSync tilfører forsinkelse. Hvis påstanden skal bli riktig så må du da eksplisitt spesifisere "i forhold til VSync". Uansett så er ikke dette input-lag, men output lag til skjermkortet.

Lenke til kommentar

 

Feil betegnelser? Hvorfor prøver du å flisespikke? Det du sier stemmer heller ikke. En skjerm har mer forsinkelse enn det som kommer av prosessering. Men det er ikke relevant. Fra wiki:

Sitat

 

In video games, input lag is either the delay between the television or monitor receiving a signal and it being displayed on the screen%5B1%5D (see display lag below), or the delay between pressing a button and seeing the game react.%5B2%5D

 

Det er en direkte motsigelse i det du sier, du ser det er to helt forskjellige definisjoner der. Det er sant nok at enkelte kaller all responstid fra museklikk til skjermbilde for "input lag", men det er ganske misvisende siden mye av dette har ingenting med input å gjøre. I tillegg har du de som kaller responstid for input lag, men det er du med på er tullete?

 

Mindre input forsinkelse uten tearing er det eneste salgsargumentet som virkelig appelerer til meg.

(Mindre input forsinkelse enn med vsync på altså, siden det er det som tradisjonelt måtte til for å få til tearfree gaming)

 

 

EDIT: legger ved hva som fører til input forsinkelse. Legg merke til den ekstra rosa forsinkelsen som kommer pga vsync:

longlag-300x206.png

Jeg har aldri påstått at Vsync ikke fører til forsinkelse, hvis du ser på punkt 4 i plansjen min så ser du det. Vync med triple buffering er en ganske enorm forsinkelse faktisk, og virkelig ille for Direct3D som har kjeder med tre bilder.

 

Men det er likevel misvisende å hevde adaptiv synkronisering fjerner forsinkelse, for utgangspunktet er ingen forsinkelse og VSync tilfører forsinkelse. Hvis påstanden skal bli riktig så må du da eksplisitt spesifisere "i forhold til VSync". Uansett så er ikke dette input-lag, men output lag til skjermkortet.

 

 

Er ikke museklikk input? Jo, det er det, synes ikke det er noe misvisende å kalle det input lag. Faktisk synes jeg det er svært rasjonelt, man kan snakke om input-lag for hele kjeden, eller input-lagen til hver bestanddel.

 

AtW

  • Liker 1
Lenke til kommentar

 

Tear-free gaming uten ekstra forsinkelse er jo et av g-sync sine største salgsargumenter. ?

Input-lag er som flere av oss vet prosesseringsforsinkelse internt i skjermen. Som du er inne på, litt av hensikten med adaptiv synkronisering er borte om det kommer et ekstra ledd med forsinkelse i tillegg.

 

Freesync gjr akkurat det samme som G-sync, bare at Freesync er mye billigere, både å utvikle og i deler. og ja, det blir ikke noe input lag, eller hvis det blir det, veldig lite.

Fortell meg gode mann(?), hvorfor blir FreeSync billigere enn G-Sync? Det trengs nøyaktig samme maskinvare, og begge er implementasjoner av samme standard.

 

 

Det ene er en åpen standard enhver kan innføre, det andre er proprietært, og har allerede vist seg å beviselig være dyrt.

 

AtW

Lenke til kommentar

Er ikke museklikk input? Jo, det er det, synes ikke det er noe misvisende å kalle det input lag. Faktisk synes jeg det er svært rasjonelt, man kan snakke om input-lag for hele kjeden, eller input-lagen til hver bestanddel.

Det er greit nok å kalle mus-/tastaturinput for en form for inputlag. Men problemet med å kalle alt sammen for input-lag er at det mellom mus-/tastatur-input og skjerm-input-lag faktisk er output-lag, det må du forstå.
Lenke til kommentar

 

Er ikke museklikk input? Jo, det er det, synes ikke det er noe misvisende å kalle det input lag. Faktisk synes jeg det er svært rasjonelt, man kan snakke om input-lag for hele kjeden, eller input-lagen til hver bestanddel.

Det er greit nok å kalle mus-/tastaturinput for en form for inputlag. Men problemet med å kalle alt sammen for input-lag er at det mellom mus-/tastatur-input og skjerm-input-lag faktisk er output-lag, det må du forstå.

 

 

Hva får deg til å tro at jeg ikke forstå det? Input-lag er sånn jeg ser det beste brukt som forskjellen i tid mellom input og faktisk output på skjermen, da det er det som er relevant i praksis. Det betyr ikke at man ikke forstår at denne lagen kommer av flere faktorer.

 

AtW

Lenke til kommentar

vsync av uten g-sync -> liten forsinkelse, men tearing

vsync (dobbel eller trippel buffer) på uten g-sync -> stor forsinkelse, men uten tearing

g-sync -> liten forsinkelse uten tearing.

 

Det er da ikke misvisende å si at g-sync senker forsinkelsen om tearing er uakseptabelt.

 

Input-lag output-lag? Jeg mener du tar feil, men hvem bryr seg. Helt unødvendig å drive å kverulere når jeg har forklart hva jeg mener.

Lenke til kommentar

De som kan det tekniske bak bryr seg, for de vet forskjellen. Det er stor forskjell på input til skjermen og output til skjermkortet. Og når du ser på tester så er det nettopp input-lag på skjerm/TV som omtales, siden de andre faktorene har ingenting med den saken å gjøre.

 

Ingenting med hvilken sak å gjøre? Saken "TVen"? Nei, det er jo ganske naturlig at når man tester den, så tester man hvor mye den konkrete enheten spiller inn, akkurat som man tester fargene på TVen, ikke om det er fargefeil i andre ledd feks. Og så?

 

AtW

Lenke til kommentar

 

De som kan det tekniske bak bryr seg, for de vet forskjellen. Det er stor forskjell på input til skjermen og output til skjermkortet. Og når du ser på tester så er det nettopp input-lag på skjerm/TV som omtales, siden de andre faktorene har ingenting med den saken å gjøre.

Ingenting med hvilken sak å gjøre? Saken "TVen"? Nei, det er jo ganske naturlig at når man tester den, så tester man hvor mye den konkrete enheten spiller inn, akkurat som man tester fargene på TVen, ikke om det er fargefeil i andre ledd feks. Og så?

 

Når en monitor eller TV testes så er det forsinkelsen internt i den enheten som testes. Forsinkelse i Windows på en bestemt maskin, i et bestemt spill eller i et bestemt skjermkort er da ganske irrelevant, siden det er systemspesifikt og ikke relevant til den testen.

 

Bare noe så enkelt som om brukeren ha PS/2, USB HID, ikke-standardisert HID USB 2.0, Bluetooth osv. kan gi fire helt forskjellige forsinkelser på input-enheter.

Endret av efikkan
Lenke til kommentar

 

 

De som kan det tekniske bak bryr seg, for de vet forskjellen. Det er stor forskjell på input til skjermen og output til skjermkortet. Og når du ser på tester så er det nettopp input-lag på skjerm/TV som omtales, siden de andre faktorene har ingenting med den saken å gjøre.

Ingenting med hvilken sak å gjøre? Saken "TVen"? Nei, det er jo ganske naturlig at når man tester den, så tester man hvor mye den konkrete enheten spiller inn, akkurat som man tester fargene på TVen, ikke om det er fargefeil i andre ledd feks. Og så?

 

Når en monitor eller TV testes så er det forsinkelsen internt i den enheten som testes. Forsinkelse i Windows på en bestemt maskin, i et bestemt spill eller i et bestemt skjermkort er da ganske irrelevant, siden det er systemspesifikt og ikke relevant til den testen.

 

Bare noe så enkelt som om brukeren ha PS/2, USB HID, ikke-standardisert HID USB 2.0, Bluetooth osv. kan gi fire helt forskjellige forsinkelser på input-enheter.

 

 

Selvfølgelig, som sagt, det er jo naturlig at man tester den enheten som er til test sinn innvirkning når det er en produkttest som dette. Jeg skjønner bare ikke hva som er poenget, eller hvordan dette er i strid med det noen andre har sagt?

 

AtW

Lenke til kommentar

 

 

De som kan det tekniske bak bryr seg, for de vet forskjellen. Det er stor forskjell på input til skjermen og output til skjermkortet. Og når du ser på tester så er det nettopp input-lag på skjerm/TV som omtales, siden de andre faktorene har ingenting med den saken å gjøre.

Ingenting med hvilken sak å gjøre? Saken "TVen"? Nei, det er jo ganske naturlig at når man tester den, så tester man hvor mye den konkrete enheten spiller inn, akkurat som man tester fargene på TVen, ikke om det er fargefeil i andre ledd feks. Og så?

 

Når en monitor eller TV testes så er det forsinkelsen internt i den enheten som testes. Forsinkelse i Windows på en bestemt maskin, i et bestemt spill eller i et bestemt skjermkort er da ganske irrelevant, siden det er systemspesifikt og ikke relevant til den testen.

 

Bare noe så enkelt som om brukeren ha PS/2, USB HID, ikke-standardisert HID USB 2.0, Bluetooth osv. kan gi fire helt forskjellige forsinkelser på input-enheter.

 

 

Om skjermen påvirker inputforsinkelsen* til hele systemet, er det da også irrelevant?

 

*evt. input respons. Fra museklikk til foton

Lenke til kommentar

Fordi når "input lag" omtales så er det snakk om forsinkelse i monitor.

 

Når det gjelder de øvrige kildene til forsinkelse så er de bruksspesifikt:

1) Device input: PS/2, USB HID, ikke-standardisert HID USB 2.0, Bluetooth

2) OS-overhead, påvirker threading, device input og forsinkelse for kommunikasjon mellom prosesser

3) Spillet i seg selv

4) Buffering og eventuell VSync.

I tillegg kommer potensiell ujevnhet i skjermkortytelse og variasjon pga. drivere.

 

Summen av dette blir altså ikke særlig målbart eller forutsigbart på tvers av PC-oppsett.

Lenke til kommentar

Fordi når "input lag" omtales så er det snakk om forsinkelse i monitor.

 

Når det gjelder de øvrige kildene til forsinkelse så er de bruksspesifikt:

1) Device input: PS/2, USB HID, ikke-standardisert HID USB 2.0, Bluetooth

2) OS-overhead, påvirker threading, device input og forsinkelse for kommunikasjon mellom prosesser

3) Spillet i seg selv

4) Buffering og eventuell VSync.

I tillegg kommer potensiell ujevnhet i skjermkortytelse og variasjon pga. drivere.

 

Summen av dette blir altså ikke særlig målbart eller forutsigbart på tvers av PC-oppsett.

 

Det er ikke forutsigbart uansett, alle ledd har forskjellig lag, inkludert skjermen. Du får ha din mening om hvordan ordet skal brukes, andre får ha sin, det brukes på begge måter. Det eneste som ikke gir mening er å tro at argumentene dine viser at det ene er mer riktig enn det andre.

 

AtW

Lenke til kommentar

Feil, input-lag til en skjerm er målbart og er jevn for hver innstilling, panelet er tross alt synkronsiert med dette.

 

Å måle forsinkelse fra mus til piksel på skjerm gir ingen mening, for det er ikke sammenlignbart og heller ikke målbart for den del, siden det varierer fra det ene øyeblikket til det andre.

 

Musa sin forsinkelse er jevn for hver innstilling, buffering og vsync er jevnt gitt en viss ytelse, OS-overhead er neglisjerbart for ikke-jevnt bidrag. Det virker som du mener det er meningsløst å måle forsinkelse på noe annet enn skjerm, det er bare tull.

 

AtW

  • Liker 2
Lenke til kommentar

 

Fortell meg gode mann(?), hvorfor blir FreeSync billigere enn G-Sync? Det trengs nøyaktig samme maskinvare, og begge er implementasjoner av samme standard.

Dette er det alle på HW.no tror. Hvertfall de som tror de vet noe.

nVidia = Grådige, lite fremtidsrettet, vil lage lukkede løsninger, små fremskritt, melke markedet

AMD = Nyskapende, prispressende, konkurransedyktig, kjøper det likevel om det er dårligere for å støtte de

 

WOW! :D

 

PS! "konkurransedyktig" og "kjøper det likevel om det er dårligere for å støtte de" er en selvmotsigelse! ;)

Endret av HKS
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...