Taake89 Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Hvorfor står det da spesifikkt i selve overskriften at det er input lag som skal "fjernes"? Fordi det er en vanvittig dårlig overskrift. Lenke til kommentar
sedsberg Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 (endret) Leste litt på anandtech og jeg ser ingenting om input lag der. Hvor får de det fra i den norske versjonen? Sånn som jeg har skjønt det så er det rett og slett bare variabel vsync-frekvens på skjermen. (Litt forenklet forklart) Endret 21. oktober 2013 av sedsberg Lenke til kommentar
Randominated Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Overskriften må fikses på ja. Ville egentlig antatt at det vil være en anelse høyere inputlag pga ennå et lag ("layer") med bildeprosessering og signalsynkronisering. Kan artikkelforfatter vennligst lese seg inn på saken? Teknologien handler om å justere bildeoppdateringsfrekvensen på skjermen til det som blir servert av skjermkortet, på folkemunne vil "Hz" på skjermen være det samme som "fps"en skjermkortet klarer å levere. De har satt et intervall hvor skjermen ikke vil kjøre lavere enn 30Hz, og ikke høyere enn 144Hz på bildeoppdatering. Her har artikkerforfatter også misforstått - teknologien fungerer nemlig KUN på skjermer som SPESIFIKT støtter G-Sync og ikke nødvendigvis hele frekvensintervallet. 1 Lenke til kommentar
AndersT2 Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Så dette som en god nyhet, helt frem til noen sa noe som ikke er nevnt i artikkelen her. Det funker vist kun på TN-panel. Underlig at de ikke skulle fungere på IPS paneler osv, det hadde hjulpet selv om de kun kjører 60Hz. Lenke til kommentar
AdNauseam Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Ville heller hatt en åpen standard som fungerte på alle skjermkort. 3 Lenke til kommentar
kjeLL// Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 det er sånne artikler som dette som får meg til å besøke HW.no mindre og mindre. og det er neimen ikke lenge før den havner samme sted som itavisen gjorde i min daglige surferunde. godt tek har gamer, amobil og diskusjon å lene seg på. lagde forøvrig en tråd som peker til anand på lørdag. og den har bare fått 99 visninger. keep up the "good" work HW, så får dere en unik hitt mindre pr dag. 5 Lenke til kommentar
Taake89 Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Ville heller hatt en åpen standard som fungerte på alle skjermkort. Ser ut som det er stikk motsatt vei bransjen er på vei.. Lenke til kommentar
Gjest Slettet-RnjNn5NbHl Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Gsync kommer bare til å finnes på NT skjermer (den dårligste men rakseste versjonen av LCD Lenke til kommentar
Boye Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Det var voldsomt mange ord i artikkelen for å si "variabel refresh rate" Ikke vær redd for mangel på IPS, allerede på vei. Problemet er vel mer lag på høy Hz med IPS, men vi får se... SXRD-projektoren takler 240Hz output (mer for å gi behagelig 3D), så teknologien er der. Lenke til kommentar
GeirGrusom Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Gsync kommer bare til å finnes på NT skjermer (den dårligste men rakseste versjonen av LCD Du mener vel TN, og hvor har du dette fra? Lenke til kommentar
jonny Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Dette høres ut som en god idé (var vel et par dager siden jeg hørte om det første gang). Selv bruker jeg alltid vsync og setter ned kvalitetsinnstillingene og evt. oppløsning om nødvendig slik at skjermkortet klarer minimum 60 bilder per sekund (evt. 50, og setter skjermen til 50 Hz). Lenke til kommentar
kilik Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Kort og godt får man fordelene som vsync gir til vanlig, men uten noen av ulempene. Lenke til kommentar
efikkan Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Resultatet er at skjermen og grafikkprosessoren ikke klarer å bli helt enige, og det oppstår feil i bildet som tearing, et fenomen der bildet blir delt på langs, og grafikken ikke stemmer overens med hverandre. Tearing oppstår fordi bildet oppdateres fra skjermkortet mens skjermen holder på med å tegne det I tillegg får du nok et problem dersom du kjører to eller flere skjermkort sammen, stuttering, der rekkefølgen på bildene som gis ut fra skjermkortene ikke alltid stemmer. SLI og CrossFire gir aldri bilder i feil rekkefølge. Problemet med stuttering er forårsaket av at primærkortet alltid må stoppe opp når de andre kortene er ferdig med et bilde, som gjør at intervallet mellom bildene aldri blir helt jevnt. G-sync vil hindre tearing, men vil ikke i følge dokumentasjonen justere bildeflyten (så vidt jeg kan se). G-sync kan derimot synkronisere flere ulike skjermer, men dette er ingen nyhet. Hvor mange ms input lag regner de med? Går ut i fra de ikke kommer ned mot CRT. Som mange har nevnt, dette har ingenting med input lag. La meg nevne hovedtrekkene i forsinkelse i et spill: - Device input (0.7 ms for PS/2, ~10 ms for HID(USB), ~30 ms for HID(Bluetooth)). - OS Overhead (~1ms for Windows, Linux, <0.01ms for Linux low latency) - Spillmotor: eventprosessering/game loop og fysikkberegninger. (avhengig av arkitektur, 1ms - ??) - Triple buffering - OpenGL: (implementasjonsavhengig) Trippel bufring skal gi tilnærmet null forsinkelse så lenge fps er høyere enn monitorfrekvens, og veksle mellom 0ms og 1/monitorfrekvens når fps bikker under monitorfrekvens. - Direct3D: Trippel bufring skal i teorien være uproblematisk når fps er høyere enn monitorfrekvens, men fungerer dårlig i Direct3D siden alle tre bildene i "køen" skal vises, til forskjell fra tradisjonell trippel bufring som vil forkaste bilder som blir overflødige. G-sync skal teoretisk kunne "eliminere" behovet for en trippel buffer(og bruke dobbel). Det blir interessant å se hvorvidt dette påvirker Direct3Ds buffer-lag. I utgangspunktet vil G-sync kunne eliminere behovet for trippel bufring - Monitor input (dette de fleste kaller input lag), ~0 ms for CRT, ~5-35 ms for div. LCD. Dette er i bildeprosesseringen internt i skjermen. Hvorfor står det da spesifikkt i selve overskriften at det er input lag som skal "fjernes"? Fordi artikkelforfatter ikke har peiling som vanlig. Det vil ikke fjerne microstuttering som forekommer av ujevne tidsintervaler mellom frames. Helt korrekt. Det er som nevnt over to primære kilder til stuttering(OS overhead, og eventuelt multi-GPU), G-sync vil gjøre ingenting med noen av de. Leste litt på anandtech og jeg ser ingenting om input lag der. Hvor får de det fra i den norske versjonen? Sånn som jeg har skjønt det så er det rett og slett bare variabel vsync-frekvens på skjermen. (Litt forenklet forklart) Helt riktig, variabel V-sync og synkronisering på tvers av monitorer. Så enkelt kunne HW sagt det, og alle ville forstått det. 5 Lenke til kommentar
efikkan Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 G-sync kommer bare til å finnes på TN-skjermer (den dårligste men rakseste versjonen av LCD Ja hvorfor det? Jeg ser ingen tekniske begrensninger til hvorfor dette ikke skulle kunne brukes på andre skjermteknologier, inkl. OLED og plasma for den del. Det vil nok komme først til TN fordi der er størst etterspørsel, men tearing er også et plagsomt problem for video/film. BTW: TN er ikke dårligst men raskest, det er mye mer komplisert enn det. TN er raskere, kan ha litt bedre sortnivå enn IPS (men dårligere enn VA), kan være på nivå med billig-IPS på fargerom og gradering, og er betydelig mer behagelig å lese tekst på pga. IPS har en "krystalliserende overflate". Ingen LCD-skjerm er suveren til alt, så det er ikke dumt å ha én IPS-skjerm og én TN-skjerm. 1 Lenke til kommentar
troutmaster Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Spennende.. Lenke til kommentar
Gjest Slettet-RnjNn5NbHl Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Gsync kommer bare til å finnes på NT skjermer (den dårligste men rakseste versjonen av LCD Du mener vel TN, og hvor har du dette fra? Ja, og jeg har det fra en youtuber som var på nvidia konferansen, men det kommer flere type skjermer etter hvert, men ikke fra start Lenke til kommentar
RamGuy Skrevet 21. oktober 2013 Rapporter Del Skrevet 21. oktober 2013 Det må da ligge støtte for dette i 27" av samme skjerm, eller? Har denne selv og kunne godt tenkt meg å skrudd den opp for å sette inn en sånn brikke om prisen ikke blir absurd, men det å kjøpe ny skjerm kan de bare glemme spesielt når jeg tilsynelatende sitter på en skjerm som burde kunne støtte dette allerede. Snakker da om VG278HE. Lenke til kommentar
Fishbones Skrevet 22. oktober 2013 Rapporter Del Skrevet 22. oktober 2013 Jeg synes dette er ganske revolusjonerende. Endelig noen som faktisk gidder å ta buk på et gammelt problem som har plaget oss i flere tiår - hvis dette da funker som de sier det skal. Er litt morsomt å lese kommentarene på Kotaku sin nettside. Omtrent 90% av kommentarene mener dette er en 'gimmick' fra Nvidia sin side, og er i bunn og grunn helt ubrukelig teknologi. De kan ikke ta mer feil. Ser flere som skriver at det å kjøpe en 120 Hz skjerm vil fikse problemet. Dette stemmer ikke. Har du en høyere FPS enn oppdateringsfrekvens, så vil du få screen tearing. Har du mindre FPS enn oppdateringsfrekvensen, så vil du fortsatt få screen tearing. Grunn til at det føles bedre ut på 120 Hz er fordi det er nærmere gjennomsnitts FPSen at det blir ikke et like stort problem som om du hadde en 60 Hz skjerm og spiller med 200 FPS. Jeg personlig gleder meg sykt til denne teknologien! Lenke til kommentar
Fishbones Skrevet 22. oktober 2013 Rapporter Del Skrevet 22. oktober 2013 Ville heller hatt en åpen standard som fungerte på alle skjermkort. Som? Skjermprodusentene som BenQ, Asus, Philips og Viewsonic skal begynne å implentere dette i deres skjermen - ser for meg at resten av produsentene vil følge etter. Lenke til kommentar
N o r e n g Skrevet 22. oktober 2013 Rapporter Del Skrevet 22. oktober 2013 Som? Skjermprodusentene som BenQ, Asus, Philips og Viewsonic skal begynne å implentere dette i deres skjermen - ser for meg at resten av produsentene vil følge etter. Problemet er vel at dette er noe Radeon-kortene ikke vil støtte nettopp fordi det ikke er lønnsomt for Nvidia... Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå