Gå til innhold

Guide: Nvidia G-Sync (Ekstra)


Anbefalte innlegg

Videoannonse
Annonse

For en som ikke er helt med på teknologien bak dette, det kommer kanskje frem i artikkelen for de som har greie på slikt. Er det slik å forstå at skjermen min sannsynligvis støtter dette allerede gjennom LVDS? Kan jeg kjøpe en ny skjerm i dag som senere kan få støtte for dette? Har nVidia plantet dette chippen i forskjellige monitorer i en årrekke allerede?

Lenke til kommentar

Lurer på hvor lang tid det tar før AMD kommer med noe tilsvarende, eller blir de hindret av Nvidias patenter?

 

Som jeg forstår er det forskjeller konstruksjonen i den nåværende generasjonen av skjermkort som gjør at AMD ikke uten videre kan gjøre tilsvarende.

Lenke til kommentar

For en som ikke er helt med på teknologien bak dette, det kommer kanskje frem i artikkelen for de som har greie på slikt. Er det slik å forstå at skjermen min sannsynligvis støtter dette allerede gjennom LVDS? Kan jeg kjøpe en ny skjerm i dag som senere kan få støtte for dette? Har nVidia plantet dette chippen i forskjellige monitorer i en årrekke allerede?

Dette er ny teknologi som ikke finnes i markedet fra før. Skjermer som støtter Gsync skal dukke opp før Jul. Det finnes riktignok en Asus modell allerede du kan modde.

Lenke til kommentar

Antok det ikke fantes i markedet fra før, men så stod det dette med LVDS i artikkelen (som skjermer flest bruker i dag). Men da er det bare at overføringsteknologien eller tilkoblingen stort sett er standard allerede, det man mangler er dette chippen i skjermene?

 

Antar jeg får vente til litt over jul med å kaste meg over dette. Har en skjerm som snart er moden for de evige jaktmarker. Eller videresalg. Eller hvor man nå gjør av dataskjermer.

Lenke til kommentar

Antok det ikke fantes i markedet fra før, men så stod det dette med LVDS i artikkelen (som skjermer flest bruker i dag). Men da er det bare at overføringsteknologien eller tilkoblingen stort sett er standard allerede, det man mangler er dette chippen i skjermene?

 

Antar jeg får vente til litt over jul med å kaste meg over dette. Har en skjerm som snart er moden for de evige jaktmarker. Eller videresalg. Eller hvor man nå gjør av dataskjermer.

 

Hei,

 

LVDS er en overføringsstandard som mange skjermer bruker, og som må være i skjermen for at det skal være mulig å bruke den med G-Sync. G-Sync er imidlertid en egen chip som må settes inn og tilpasses hver skjerm. Som Blinc skriver finnes det én skjerm fra Asus i dag som har G-Sync, men du må ha både LVDS og den dedikerte G-Sync-modulen for å få G-Sync :-)

  • Liker 1
Lenke til kommentar
Gjest Slettet-Pqy3rC

Så lenge skjermkortet vet oppdateringsfrekvensen til skjermen forstår jeg fortsatt ikke, på tross av artikkelen, at nVidia ha en fysisk brikke inn i skjermen.

 

Metoden: Draw -> buffer -> Screen burde funket. (mat skjermen med komplette bilder i fast takt, dvs. 'g-sync' i skjermkortet).

 

På meg virker det nå mer som en greie for å "tvinge" folk til å kjøpe/bruke nVidia skjermkort på neste maskin når de sitter med en nVidia "tilpasset" skjerm.

Lenke til kommentar

Så lenge skjermkortet vet oppdateringsfrekvensen til skjermen forstår jeg fortsatt ikke, på tross av artikkelen, at nVidia ha en fysisk brikke inn i skjermen.

 

Metoden: Draw -> buffer -> Screen burde funket. (mat skjermen med komplette bilder i fast takt, dvs. 'g-sync' i skjermkortet).

 

På meg virker det nå mer som en greie for å "tvinge" folk til å kjøpe/bruke nVidia skjermkort på neste maskin når de sitter med en nVidia "tilpasset" skjerm.

 

Det du beskriver er vsync, som er forklart i artikkelen. Problemet med dette er at hvis skjermkortet ikke klarer å generere bilder raskt nok, vil det oppstå stutter/lag (som også ble forklart i artikkelen). Man må altså redusere grafikkinnstillingene helt til skjermkortet klarer å produsere minimum 60 bilder i sekundet (hvis skjermkortet er satt til å levere 60 Hz til skjermen) til enhver tid for å unngå dette. Dermed vil skjermkortet "hvile" 1000/60 - (tid-det-tok-å-generere-skjermbildet) ms hver gang det har generert et bilde. Med G-Sync vil skjermkortet generere bilder og levere dem til skjermen umiddelbart uten "hviletid" (du får dermed utnyttet skjermkortet maksimalt).

  • Liker 2
Lenke til kommentar

Lurer på hvor lang tid det tar før AMD kommer med noe tilsvarende, eller blir de hindret av Nvidias patenter?

Sitat fra en HW.no artikkel med Tom Petersen.

http://www.hardware.no/artikler/mot-mannen-som-kan-ha-endret-spillopplevelsen-din/153511
"Det er vanskelig å argumentere for at du ikke trenger G-Sync. Jeg vet ikke hva AMD vil gjøre, men jeg kan ikke se for meg at de vil ignorere dette, sier han.
– Og dette vil ikke fungere med AMD-kort, ikke til å begynne med. Og mest sannsynlig ikke på lenge, for de har mye å gjøre på skjermkort-siden. Det er heller ikke klart for meg hvordan de kan gjøre det uten å bryte våre patenter, sier han."
Ikke et klart svar, men mest sannsynlig ikke på en stund.
Lenke til kommentar
  • 1 måned senere...

Vil det si at man ikke kan få mer enn 60 FPS i et spill, hvis skjermen har 60 Hz?

Man merker faktisk forskjell mellom 60 og 120 fps på en 60 Hz skjerm. Eller er det faktisk dette problemet som elimineres, slik at man får utnyttet det fulle potensialet?

 

Med full synkronisering av bildeoppdatering vil du aldri trenge mer enn 60 FPS på et 60hz panel, da frames over dette ikke kan brukes til noe. Blir det samme som hvis du bruker vsync i dag. Da sørger GPU for å ikke rendrerer nytt bilde oftere enn hvert 16 ms.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...