Gå til innhold

FreeSync rykker stadig nærmere skrivebordet ditt


Anbefalte innlegg

Videoannonse
Annonse

Jeg skjønner ikke FreeSync, ingen hakking og rivnig. Kan man kjøre grafikken på fult? Da trenger man jo ikke nye skjermkort hele? Takk!

Hvis du aktiverer Vsync vil du ofte se at bildet kan hakke litt hvis skjermkortet sliter med å produsere 30/60/120 fps, men om du skrur av Vsync får du riving i bildet.

Nye skjermkort vil du fortsatt trenge med Adaptive Sync og G-sync, men du vil ikke merke det like godt når spillet faller under 60 fps med G-sync som du gjør med Vsync.

Lenke til kommentar

Jeg skjønner ikke FreeSync, ingen hakking og rivnig. Kan man kjøre grafikken på fult? Da trenger man jo ikke nye skjermkort hele? Takk!

 

Freesync gjør bare at oppdateringsfrekvensen til skjermen følger frekvensen til skjermkortet, i stedet for å jevnt pumpe ut 60 hz hele tiden. Dette gjør at du ikke trenger å ha en jevn fps på 60 for å unngå riving og hakking.

 

hardware har en artikkel som forklarer hakking og riving, men du på være ekstra-medlem for å kunne lese den: http://www.hardware.no/artikler/guide-nvidia-g-sync/153570?utm_source=related_articles

Lenke til kommentar

Jeg skjønner ikke FreeSync, ingen hakking og rivnig. Kan man kjøre grafikken på fult? Da trenger man jo ikke nye skjermkort hele? Takk!

 

Kort forklart:

Vanligvis sender et skjemkort ut nytt bilde til skjermen så snart det er ferdig rendret. Dersom bildet sendes imens skjermen tegner opp det forrige bildet vil øvre og nedre del av bildet på skjermen kunne være tegnet fra forskjellige input fra skjermkortet. Dette kalles tearing eller riving.

 

Med V-sync sender skjermkortet nytt bilde til skjermen med faste intervaller. Så med 60Hz skjerm, vil skjermen sende bilde 60 ganger i sekundet. Hvis et nytt bilde ikke er klart i skjermkortet venter det til neste syklus med å sende nytt bilde, og skjermen viser samme bilde to ganger på rad.

 

Med G-sync og Freesync snus prosessen på hodet, slik at skjermen viser nytt bilde når den får det tilsendt fra skjermkortet. Man slipper dermed problemet med tearing, og samtidig får man oppdatert bildet på skjermen så ofte som skjermkortet klarer, opp til en gitt grense.

  • Liker 2
Lenke til kommentar

Dere har ennå ikke forstått hva FreeSync, G-Sync og Adaptive Sync er i forhold til hverandre.

Ettersom teknologien bak FreeSync er bakt inn i en åpen industristandard, og dermed fritt tilgjengelig for alle produsenter, vil det visstnok ikke bli noe dyrere å kjøpe en skjerm med FreeSync-støtte enn en uten, når de omsider kommer på markedet. Dette i sterk kontrast til G-Sync-skjermer, som allerede har vært i salg ganske lenge, men som altså koster en liten formue (Ekstra).

Dere fremstiller det som at Nvidia er griske og prøver å ta betalt for noe AMD skal gi gratis, og det er totalt feil.

- Adaptive Sync er standarden, hvor FreeSync og G-Sync representerer to implementasjoner. G-Sync ble riktig nok implementert før standarden var ferdig utformet, så den vil eventuelt oppdateres med endringer.

- Alle skjermer som skal støtte adaptiv synkronisering må få driverkretser med denne støtten, det koster penger å utvikle og vil være innbakt i prisen på skjermen. Nvidia har brukt ressurser på å utvikle en slik krets, som er grunnen til at denne har vært ekstra dyr nå i starten. Alt nytt er dyrt.

- I det ene øyeblikket mener dere FreeSync er gratis, og i det andre øyeblikket en "åpen standard"? Kan ikke dere bestemme dere snart? FreeSync er som sagt en implementasjon, ikke en standard.

 

Bare så det er sagt, AMD kaller også sitt Mantle en "åpen standard", selv om vi har sett lite til det. Dette har AMD høstet mye ros for selv om det egentlig bare er en proprietær etterligning av Direct3D 12-funksjonalitet, mens Nvidia skal få kritikk for at de eksperimenterer med en fremtidig standard(fremtidig på det tidspunktet). Dette er hykleri på høyt nivå.

 

Gsync/Freesync...

 

Input lag til tusen.

Input lag har ingenting med saken å gjøre.
  • Liker 1
Lenke til kommentar

Har ikke helt skjønt forskjellen mellom dette og nvidia sin løsning. Vil freesync føre til tear-free spillgrafikk uten å legge til forsinkelse, slik som dagens vertical sync gjør?

 

*I motsetning til dagens vertical sync

 

 


...

Gsync/Freesync...

Input lag til tusen.

Input lag har ingenting med saken å gjøre.

 

 

Tear-free gaming uten ekstra forsinkelse er jo et av g-sync sine største salgsargumenter. ?

Endret av Kirchhoff
Lenke til kommentar
Gjest Slettet-RnjNn5NbHl

Har ikke helt skjønt forskjellen mellom dette og nvidia sin løsning. Vil freesync føre til tear-free spillgrafikk uten å legge til forsinkelse, slik som dagens vertical sync gjør?

 

*I motsetning til dagens vertical sync

 

 

...

 

 

Gsync/Freesync...

 

Input lag til tusen.

Input lag har ingenting med saken å gjøre.

Tear-free gaming uten ekstra forsinkelse er jo et av g-sync sine største salgsargumenter. ?

Freesync gjr akkurat det samme som G-sync, bare at Freesync er mye billigere, både å utvikle og i deler. og ja, det blir ikke noe input lag, eller hvis det blir det, veldig lite.

 

Freesync og AdaptiveSync er nesten akkurat det samme, det er fordi Adaptive Sync er på en måte ferdigversjonen av Freesync, og er den eneste som kommer på markedet. Freesync er bare AMD, Adaptive sync er når AMD gikk sammen med VESA for å faktisk lage en standard av det som funker med Displayport og derfor stand alone skjermer og ikke bare laptoper.

Lenke til kommentar

Tear-free gaming uten ekstra forsinkelse er jo et av g-sync sine største salgsargumenter. ?

Input-lag er som flere av oss vet prosesseringsforsinkelse internt i skjermen. Som du er inne på, litt av hensikten med adaptiv synkronisering er borte om det kommer et ekstra ledd med forsinkelse i tillegg.

 

Freesync gjr akkurat det samme som G-sync, bare at Freesync er mye billigere, både å utvikle og i deler. og ja, det blir ikke noe input lag, eller hvis det blir det, veldig lite.

Fortell meg gode mann(?), hvorfor blir FreeSync billigere enn G-Sync? Det trengs nøyaktig samme maskinvare, og begge er implementasjoner av samme standard.

 

Freesync og AdaptiveSync er nesten akkurat det samme, det er fordi Adaptive Sync er på en måte ferdigversjonen av Freesync, og er den eneste som kommer på markedet. Freesync er bare AMD, Adaptive sync er når AMD gikk sammen med VESA for å faktisk lage en standard av det som funker med Displayport og derfor stand alone skjermer og ikke bare laptoper.

Feil. Adaptiv synkronisering har vært planalgt av DP 1.3 i lang tid. Nvidia ønsket å bringe det til markedet før uten å vente på den ferdige standarden. Deretter ville AMD også fremskynde teknologien (det kalles konkurranse, og det er en bra ting, så takken være Nvidia har AMD fått fart på baken!) og fikk VESA til å lage en modifisert 1.2-standard, som er akkurat det samme som Nvidia har gjort uten standarden.
Lenke til kommentar

 

 

Jeg skjønner ikke FreeSync, ingen hakking og rivnig. Kan man kjøre grafikken på fult? Da trenger man jo ikke nye skjermkort hele? Takk!

Hvis du aktiverer Vsync vil du ofte se at bildet kan hakke litt hvis skjermkortet sliter med å produsere 30/60/120 fps, men om du skrur av Vsync får du riving i bildet.

Nye skjermkort vil du fortsatt trenge med Adaptive Sync og G-sync, men du vil ikke merke det like godt når spillet faller under 60 fps med G-sync som du gjør med Vsync.

Takk!

Lenke til kommentar

 

Jeg skjønner ikke FreeSync, ingen hakking og rivnig. Kan man kjøre grafikken på fult? Da trenger man jo ikke nye skjermkort hele? Takk!

 

Freesync gjør bare at oppdateringsfrekvensen til skjermen følger frekvensen til skjermkortet, i stedet for å jevnt pumpe ut 60 hz hele tiden. Dette gjør at du ikke trenger å ha en jevn fps på 60 for å unngå riving og hakking.

 

hardware har en artikkel som forklarer hakking og riving, men du på være ekstra-medlem for å kunne lese den: http://www.hardware.no/artikler/guide-nvidia-g-sync/153570?utm_source=related_articles

Takk!

Lenke til kommentar

 

Jeg skjønner ikke FreeSync, ingen hakking og rivnig. Kan man kjøre grafikken på fult? Da trenger man jo ikke nye skjermkort hele? Takk!

 

Kort forklart:

Vanligvis sender et skjemkort ut nytt bilde til skjermen så snart det er ferdig rendret. Dersom bildet sendes imens skjermen tegner opp det forrige bildet vil øvre og nedre del av bildet på skjermen kunne være tegnet fra forskjellige input fra skjermkortet. Dette kalles tearing eller riving.

 

Med V-sync sender skjermkortet nytt bilde til skjermen med faste intervaller. Så med 60Hz skjerm, vil skjermen sende bilde 60 ganger i sekundet. Hvis et nytt bilde ikke er klart i skjermkortet venter det til neste syklus med å sende nytt bilde, og skjermen viser samme bilde to ganger på rad.

 

Med G-sync og Freesync snus prosessen på hodet, slik at skjermen viser nytt bilde når den får det tilsendt fra skjermkortet. Man slipper dermed problemet med tearing, og samtidig får man oppdatert bildet på skjermen så ofte som skjermkortet klarer, opp til en gitt grense.

Lenke til kommentar
efikkan, den 26 Sept 2014 - 19:13, sa:efikkan, den 26 Sept 2014 - 19:13, sa:

 

Kirchhoff, den 26 Sept 2014 - 18:19, sa:Kirchhoff, den 26 Sept 2014 - 18:19, sa:

Tear-free gaming uten ekstra forsinkelse er jo et av g-sync sine største salgsargumenter. ?

Input-lag er som flere av oss vet prosesseringsforsinkelse internt i skjermen. Som du er inne på, litt av hensikten med adaptiv synkronisering er borte om det kommer et ekstra ledd med forsinkelse i tillegg.

...

En del av inputforsinkelsen er pga prosessering, som du sier ja. Men Input lag til en pc er mye mer enn det. Vertical sync med dagens faste skjermoppdateringsfrekvens øker forsinkelsen fra brukeren til skjerm relativt mye. G-sync har lovet å redusere denne forsinkelsen kraftig med variabel skjermoppdateringsfrekvens.

Slik jeg har forstått så er det ved å oppdatere display med en gang nytt bilde er klart, i steden for å vente til neste. Det blir altså mindre input lag.

 

*I steden for å vente til det har gått 1/60 sekund siden sist skjerm ble oppdatert.

 

EDIT: G-sync har nesten like kort forsinkelse som med vsync av

Endret av Kirchhoff
Lenke til kommentar

 

Jeg skjønner ikke FreeSync, ingen hakking og rivnig. Kan man kjøre grafikken på fult? Da trenger man jo ikke nye skjermkort hele? Takk!

 

Kort forklart:

Vanligvis sender et skjemkort ut nytt bilde til skjermen så snart det er ferdig rendret. Dersom bildet sendes imens skjermen tegner opp det forrige bildet vil øvre og nedre del av bildet på skjermen kunne være tegnet fra forskjellige input fra skjermkortet. Dette kalles tearing eller riving.

 

Med V-sync sender skjermkortet nytt bilde til skjermen med faste intervaller. Så med 60Hz skjerm, vil skjermen sende bilde 60 ganger i sekundet. Hvis et nytt bilde ikke er klart i skjermkortet venter det til neste syklus med å sende nytt bilde, og skjermen viser samme bilde to ganger på rad.

 

Med G-sync og Freesync snus prosessen på hodet, slik at skjermen viser nytt bilde når den får det tilsendt fra skjermkortet. Man slipper dermed problemet med tearing, og samtidig får man oppdatert bildet på skjermen så ofte som skjermkortet klarer, opp til en gitt grense.

Takk!

Lenke til kommentar

 

Jeg skjønner ikke FreeSync, ingen hakking og rivnig. Kan man kjøre grafikken på fult? Da trenger man jo ikke nye skjermkort hele? Takk!

 

Kort forklart:

Vanligvis sender et skjemkort ut nytt bilde til skjermen så snart det er ferdig rendret. Dersom bildet sendes imens skjermen tegner opp det forrige bildet vil øvre og nedre del av bildet på skjermen kunne være tegnet fra forskjellige input fra skjermkortet. Dette kalles tearing eller riving.

 

Med V-sync sender skjermkortet nytt bilde til skjermen med faste intervaller. Så med 60Hz skjerm, vil skjermen sende bilde 60 ganger i sekundet. Hvis et nytt bilde ikke er klart i skjermkortet venter det til neste syklus med å sende nytt bilde, og skjermen viser samme bilde to ganger på rad.

 

Med G-sync og Freesync snus prosessen på hodet, slik at skjermen viser nytt bilde når den får det tilsendt fra skjermkortet. Man slipper dermed problemet med tearing, og samtidig får man oppdatert bildet på skjermen så ofte som skjermkortet klarer, opp til en gitt grense.

Takk!

Lenke til kommentar

Input-lag er som flere av oss vet prosesseringsforsinkelse internt i skjermen. Som du er inne på, litt av hensikten med adaptiv synkronisering er borte om det kommer et ekstra ledd med forsinkelse i tillegg.

 

Fortell meg gode mann(?), hvorfor blir FreeSync billigere enn G-Sync? Det trengs nøyaktig samme maskinvare, og begge er implementasjoner av samme standard.

Poenget med Adaptive Sync er jo ikke å få lavere input-lag, men heller så skjermen oppdateres samtidig med kildematerialet (uansett om det er video eller 3D-grafikk.) Spesielt for laptoper og mobiler er det jo langt mer nyttig fordi det også reduserer strømforbruket til skjermer og GPUer.

 

Adaptive Sync blir billigere enn G-Sync fordi Nvidias løsning involverer bruken av en PCB med en GK107, smart programmering, og en handshake mellom hver frame, Adaptive Sync vil bruke en ASIC for det samme, og krever ingen handshake mellom hver frame.

  • Liker 1
Lenke til kommentar

En del av inputforsinkelsen er pga prosessering, som du sier ja. Men Input lag til en pc er mye mer enn det. Vertical sync med dagens faste skjermoppdateringsfrekvens øker forsinkelsen fra brukeren til skjerm relativt mye. G-sync har lovet å redusere denne forsinkelsen kraftig med variabel skjermoppdateringsfrekvens.

Slik jeg har forstått så er det ved å oppdatere display med en gang nytt bilde er klart, i steden for å vente til neste. Det blir altså mindre input lag.

 

*I steden for å vente til det har gått 1/60 sekund siden sist skjerm ble oppdatert.

Da bruker du feil betegnelser. Input-lag er forsinkelse fra input til det vises på skjermen, dvs. intern prosessering. Alle forsinkelser som skyldes PC-siden kalles ikke input-lag. (du kan argumentere for at device I/O kan kalles en form for input-lag, men det er isåfall en annen klasse)

post-63307-0-45038600-1389989525_thumb.png
Se på denne oversikten så får du et overblikk over de store faktorene. Hvis du ønsker mer utdyping er det bare å spørre.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...