Gå til innhold

G-Sync og FreeSync tråden


Gjest bruker-293283

Anbefalte innlegg

Gjest bruker-293283

Hei

Tenkte det kunne være greit med en samletråd om G-sync og FreeSync ettersom dette blir mer populært fremover.


Hva er G-Sync og FreeSync?
 

Computer monitors are refreshed at a constant rate, usually 60 times per second. On the other hand, game framerates are sporadic: the computer draws frames as fast as it can, and that varies constantly. Meanwhile, normal video content plays back at a steady rate, usually 23.976 frames per second.
 
As you can see, your content and your monitor are never in complete sync. That’s what causes the screen to "tear:" the monitor is being fed a new frame before it’s finished drawing the last one. For a variety of reasons, games are the worst offender.
 
Traditionally, we solve the gaming problem with vertical synchronization, or v-sync. When v-sync is on, the computer lets the monitor set the pace. The PC delivers frames only at intervals that fit the monitor’s refresh rate exactly; the content and monitor are now synced and the tears are gone.
 
But there’s a catch: when the game action picks up and your PC's framerate dips, the monitor may not receive a new frame from the GPU in time for its next refresh, so the monitor displays the current frame a second time. Where you might have had a tear in the picture with a higher framerate, now you have stuttering or lag. It's a short lag, but it's obvious and intolerable to many gamers. There are even ways to alleviate the stuttering with v-sync, but these methods introduce "input lag," or a delay between the time the player moves the mouse and the movement appears on-screen. These scenarios demonstrate a traditional wisdom that every attempt to fix the basic problem of "tearing" introduces problems of its own.

But there is a solution that upends traditional wisdom: allow the monitor's refresh rate to vary (e.g. 9-60 times per second), and let that refresh rate be controlled by and synchronized to the graphics card.
 

 

-Kilde AMD


FreeSync monitorer

 

G-Sync monitorer

GPU som støtter G-Sync

GPU og APU som støtter FreeSync



Info om G-Sync

 

Rent fysisk er G-Sync et todelt system. En egen modul står i skjermen, samtidig som en del av skjermkortets kjerne også er dedikert til systemet. I kjernen av skjermkortet har Nvidia tatt i bruk moduler som normalt brukes til SLI for å kunne regulere tiden skjermen din er «blank», noe som skjer mellom hver gang skjermen er ferdig med å tegne et bilde, og før den har startet med å tegne det neste.
 
Modulen i skjermen er et eget kretskort, og fungerer faktisk som en utvidelse av skaleringskretskortet som allerede sitter i skjermen din. Normalt har dette kretskortet jobben med å behandle og presentere alle bildesignalene som kommer inn, og med G-Sync erstatter Nvidia store deler av dette kortet med sin egen teknologi.
 
Skjermkortet og G-Sync-modulen i skjermen blir knyttet sammen av skjermkabelen din, som forøvrig må være av DisplayPort-typen.
-Kilde tek.no

Info om FreeSync

 

VESA har utviklet en bransjestandard som muliggjør variabel oppdateringsfrekvens

over Displayport, også kjent som "Adaptive-Sync".
FreeSync er AMD sitt verktøy bygd inn i driveren for å la GPU/APU styre monitorens oppdateringsfrekves gjennom Adaptive-Sync.

-Kilde AMD og VESA

Hva er forskjellen på G-Sync og FreeSync?


 
Endret av bruker-293283
Lenke til kommentar
Videoannonse
Annonse
Gjest bruker-293283

Trodde du hadde skrevet alt på norsk but no, alt det her er google stuff my mate.

Derav sitat og oppgitte kilder :)

Synes AMD sin forklaring på temaet var så bra at jeg beholdt den på engelsk.

Lenke til kommentar

Interessant lesing fra PCPer ang Freesync vs Gsync:

http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion

 

 

I følge artikkelen så har BenQ og Asus samme panel.

http://youtu.be/-ylLnT2yKyA

 

 

EDIT:

Aner ikke hvorfor den videoen ikke blir embedded, beklager det.

 

Ikkje akkurat tvil om at Swift er rask i forhold til de andre skjermene der! Det virker som feige lag :p

Lenke til kommentar

Skal jo ha det samme panelet da, så da koker det vel ned til freesync vs g-sync?

Confirmation that the BenQ XL2730Z is using an AU Optronics M270DTN01.0 TN Film panel. Different to the Asus ROG Swift PG278Q (M270Q002 V0)

 

 

Ikkje vet jeg, men kanskje noen prøver seg på en snarvei med "fake" billig panel :wee:

 

Uansett, så er jeg veldig fornøyd med mine 3 Swiftskjermer. De blir enda mere fornøyd i slutten av uka :green:

 

Les: Titan XX? :ph34r:

Endret av Nizzen
Lenke til kommentar
Gjest bruker-293283

 

Skal jo ha det samme panelet da, så da koker det vel ned til freesync vs g-sync?

Confirmation that the BenQ XL2730Z is using an AU Optronics M270DTN01.0 TN Film panel. Different to the Asus ROG Swift PG278Q (M270Q002 V0)

 

 

Ikkje vet jeg, men kanskje noen prøver seg på en snarvei med "fake" billig panel :wee:

 

Uansett, så er jeg veldig fornøyd med mine 3 Swiftskjermer. De blir enda mere fornøyd i slutten av uka :green:

 

Les: Titan XX? :ph34r:

 

Da lurer jeg på om problemet med ghosting på BenQ skjermen er panelet eller FreeSync sin skyld.

 

Lenke til kommentar

 

 

Skal jo ha det samme panelet da, så da koker det vel ned til freesync vs g-sync?

Confirmation that the BenQ XL2730Z is using an AU Optronics M270DTN01.0 TN Film panel. Different to the Asus ROG Swift PG278Q (M270Q002 V0)

 

https://twitter.com/tftcentral/status/575701197010649088

 

Ikkje vet jeg, men kanskje noen prøver seg på en snarvei med "fake" billig panel :wee:

 

Uansett, så er jeg veldig fornøyd med mine 3 Swiftskjermer. De blir enda mere fornøyd i slutten av uka :green:

 

Les: Titan XX? :ph34r:

Da tar jeg den påstanden tilbake! :)

Titan XX? Lurer på om det holder til min ene rog Swift jeg? LOL! :D

Lenke til kommentar

Kanskje litt ensidet forklaring siden den kommer fra nVidia, men uansett :

 

Nvidia Explains Why Their G-Sync Display Tech Is Superior To AMD's FreeSync

 

http://www.forbes.com/sites/jasonevangelho/2015/03/23/nvidia-explains-why-their-g-sync-display-tech-is-superior-to-amds-freesync/

 

 

 

 

Ghosting occurs with free-sync while the 150 USD premium of the g-sync module actually eliminates the ghosting at low frame rates.

Long story short, the module is required for real adaptive sync without issues to occur.
Lenke til kommentar

AMD presenterte jo Freesync for leeeenge siden, og bør ha hatt god nok tid til å fikse akkurat dette, særlig hvis de kommer så hardt ut som de gjør mot Nvidia. Ref: "Freesync er bedre enn G-Sync"-kampanjen.

Dette er hvis det som rapporteres over her stemmer da selvsagt, men gjør det det så er jo ikke det veldig heldig for AMD. Hva skal de gjør med de panelene som allerede er solgt, kan de fikses med firmware?

Lenke til kommentar

Personlig så er den ghostingen en dealbreaker for meg. Det er nok ikke alle som vil se det, men jeg er redd jeg kommer til å være en av de "heldige" da jeg er veldig var for regnbuer på DLP prosjektorer. Litt synd, for jeg hadde i grunnen tenkt å snuse litt på nye skjermkortene til AMD når de kommer. Men om freesync ikke innfrir så utgår det med høye kneløft. Når det er sagt så har jo ROG swift også fått kjeft for "kluss" i bildet. Og det kan jo godt stamme fra en litt hissig "anti ghosting" behandling av bildet. Så det kan bli litt pest eller kolera. Det er jo ikke å kimse av at man kan få bedre enn Titan X, og nesten ROG swift ytelse til kanskje 12 000 Kr i stedet for 17 000 Kr...

Lenke til kommentar

Litt i dybden på forskjellen mellom G-sync og Freesync.

 

 

Altså man får det man betaler for.

 

Betaler man lite for "freesync" så får man lite. Som i mange andre tilfeller så er det ikkje noe som er billig OG bra ;)

 

Som en gulvlegger sa på jobb til en kunde: Vil du ha billig, eller bra gulvbelegg. Som et svar på kunden som spurte etter et billig og bra gulvbelegg ;)

Lenke til kommentar

Merkelig tolkning. De sier jo at FreeSync er bedre en G-Sync på de høyeste oppdateringsfrekvensene. Er det ikke det man ønsker? Man kjøper ikke en 144Hz skjerm for å kjøre den med 30 bilder i sekundet. Om det er alt skjermkorte(ne) dine klarer så kjøper man enten skjerm med lavere oppløsning, eller går ned på detaljer i spillet, eller oppgraderer skjermkort(ene). Og ROG swiften er jo ikke akkurat kjent for å være uten problemer den heller.

 

Uansett så er det viktigste at folk som vil ha AMD skjermkort ikke lenger trenger å ofre VRR. Uten AMD i markedet så hadde vi ikke sett Pascal før i "2030". Om man "heier" på nVidia eller AMD bør man være klar over at uten den ene blir den andre søppel.

 

Nå så jeg swiften til 6020Kr tidligere i dag, så den helt store prisforskjellen er der jo heller ikke lenger (allerede). Men jeg skjønner ikke helt "billig eller bra" sammenlikningen heller. R9 390X er ventet å slå Titan X i ytelse med en prislapp rundt 7000 Kr. Riktignok spekulering, men historisk sett har ATI/AMD gitt nVidia rikelig med ris på stumpen med jevne mellomrom. Uansett så var poenget mitt at om prisen og ytelsen på 390X stemmer så vil man få bedre enn TX ytelse på en likeverdig skjerm som swiften, men til 12 000 Kr i stedet for de 16 000+ Kronene som nVidia løsningen kommer på. Vil ikke det være både billig og bra sammenliknet? Såfremt 390X kommer før 980ti og slår den også da. Men det kan jo bli en annen sak. :)

  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...