Gå til innhold

Nå kan du oppgradere Asus-skjermen din til G-Sync


Anbefalte innlegg

Videoannonse
Annonse

Tenker at ASUS kommer til å tjene mye på G-sync i årene framover. Tror også at nvidia kommer til å selge flere skjermkort siden g-sync sannsynligvis ikke kommer til å støtte amd-kort. Genialt av nvidia, genialt.

ASUS kommer til å tjene rått på G-sync inntil skjermer med DP1.3 og støtte for variabel VBlank kommer på markedet (forventet å komme om en 8-12 måneder.)

Nvidia er ikke interessert i å la AMD/Intel-gpuer ta i bruk G-sync heller, om dette er genialt eller råttent av Nvidia kan diskuteres.

  • Liker 6
Lenke til kommentar

Nvidia er ikke interessert i å la AMD/Intel-gpuer ta i bruk G-sync heller, om dette er genialt eller råttent av Nvidia kan diskuteres.

Selvsagt hadde de vært det hvis AMD og Intel hadde betalt $$

 

Det er ingen selskaper som driver med veldedighet i denne bransjen...

  • Liker 4
Lenke til kommentar

Selvsagt hadde de vært det hvis AMD og Intel hadde betalt $$

 

Det er ingen selskaper som driver med veldedighet i denne bransjen...

Jeg er jammen ikke sikker:

 

 

 

That said, Nvidia won't enable G-Sync for competing graphics chips because it has invested real time and effort in building a good solution and doesn't intend to "do the work for everyone." If the competition wants to have a similar feature in its products, Petersen said, "They have to do the work. They have to hire the guys to figure it out."

http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo

 

Jeg forventer jo selvfølgelig ikke veldedighet fra Nvidias side, men måten de holder på med G-sync, PhysX/CUDA, og 3DVision bidrar bare til å splitte et marked som strengt tatt burde holde seg samlet.

 

EDIT:

Dette er bare spekulering fra min side, men det kan jo også hende at Nvidia krever en så høy pris for å tillate G-sync på AMD-kort at det vil kutte for dypt inn i profittene for AMD til at det er verdt det.

Endret av arni90
  • Liker 4
Lenke til kommentar

Jeg forventer jo selvfølgelig ikke veldedighet fra Nvidias side, men måten de holder på med G-sync, PhysX/CUDA, og 3DVision bidrar bare til å splitte et marked som strengt tatt burde holde seg samlet.

Det er samme måte som AMD går frem på med Mantle.

 

AMD er i tillegg enda frekkere. Det sier at Mantle etterhvert kommer til å bli en åpen standard, men i parksis er de fullstendig klar over at Mantle er så tett bundet til arkitektur og minnekontroller på GPU at det i praksis vil være umulig for Intel og Nvidia og støtte dette uten masivt overhead eller store endringer i GPU arkitektur.

Endret av HKS
  • Liker 3
Lenke til kommentar

Hvorfor kan ikke produsentene bare la skjermene støtte flere oppdateringsfrekvenser enn kun 60Hz? Da kan man låse spillet til den høyeste FPS det kan holde hele tiden, og sette skjermfrekvensen til samme nummer.

 

F.eks: Hvis spillet ditt alltid ligger over 50 FPS men aldri når opp til 60, lås både skjerm og spill til 50 FPS og 50 Hz. Jevn FPS som matcher skjermsignalet er alltid bedre enn variabel.

  • Liker 1
Lenke til kommentar

Det er en dyr løsning på et problem som egentlig ikke finnes. De eneste jeg kan tenke meg som kommer til å investere i g-sync er de som kjøper skjermkort til 7000 kroner og er villig til å bruke en formue på et skjerm.

De allerfleste av oss nøyer seg med et skjermkort under 2000 kroner og et skjerm til tusenlappen. Hva så om det 'hakker' litt. Har aldri opplevd problemet nvidia påstår de fikser med g-sync.

Lenke til kommentar

De allerfleste av oss nøyer seg med et skjermkort under 2000 kroner og et skjerm til tusenlappen. Hva så om det 'hakker' litt. Har aldri opplevd problemet nvidia påstår de fikser med g-sync.

Isåfall så anbefaler jeg deg å holde deg unna skjermer med G-Sync. Når du har testet dette merker du dessverre den hakkingen veldig godt.

Det blir litt som å gå tilbake til en fosilbil etter du har kjørt en Tesla Model S... :)

Lenke til kommentar

Det er en dyr løsning på et problem som egentlig ikke finnes. De eneste jeg kan tenke meg som kommer til å investere i g-sync er de som kjøper skjermkort til 7000 kroner og er villig til å bruke en formue på et skjerm.

De allerfleste av oss nøyer seg med et skjermkort under 2000 kroner og et skjerm til tusenlappen. Hva så om det 'hakker' litt. Har aldri opplevd problemet nvidia påstår de fikser med g-sync.

 

Da er du heller ikke i målgruppen til G-sync. At du ikke opplever tearing med den kjipe skjermen og skjermkortet ditt betyr ikke at andre ikke gjør det.

  • Liker 6
Lenke til kommentar

Det er en dyr løsning på et problem som egentlig ikke finnes. De eneste jeg kan tenke meg som kommer til å investere i g-sync er de som kjøper skjermkort til 7000 kroner og er villig til å bruke en formue på et skjerm.

De allerfleste av oss nøyer seg med et skjermkort under 2000 kroner og et skjerm til tusenlappen. Hva så om det 'hakker' litt. Har aldri opplevd problemet nvidia påstår de fikser med g-sync.

 

Bra du har skjønt det! For om du kjøper en skjerm med g-sync så kan du hvert 2. år investere i et skjermkort til 2-3000 kroner og kjøre de fleste spill helt smooth. Du slipper med andre ord å kjøpe skjermkort til 5000 kroner for å få samme opplevelse. Så etter noen år er g-sync brikken eller skjermen spart inn. Personlig merker jeg tearing selv på 120hz, og da jeg spiller fps spill så skal jeg garantert ha en g-sync skjerm.

Lenke til kommentar

Bra du har skjønt det! For om du kjøper en skjerm med g-sync så kan du hvert 2. år investere i et skjermkort til 2-3000 kroner og kjøre de fleste spill helt smooth. Du slipper med andre ord å kjøpe skjermkort til 5000 kroner for å få samme opplevelse. Så etter noen år er g-sync brikken eller skjermen spart inn. Personlig merker jeg tearing selv på 120hz, og da jeg spiller fps spill så skal jeg garantert ha en g-sync skjerm.

Du tror virkelig at du sparer 3000 kr på skjermkort-kjøp ved å kjøre G-sync?

HAHAHHAHAHAHAHAHAHAHAAHAHHAHAHAHHAHAHHHAHHAHAAHa, mer feil går det ikke an å ta.

Endret av arni90
  • Liker 2
Lenke til kommentar

 

 

Nvidia er ikke interessert i å la AMD/Intel-gpuer ta i bruk G-sync heller, om dette er genialt eller råttent av Nvidia kan diskuteres.

Selvsagt hadde de vært det hvis AMD og Intel hadde betalt $$

 

Det er ingen selskaper som driver med veldedighet i denne bransjen...

 

Kan ikke dere folk holde kjeft med "veldedighet"-argumentet? Jeg og mange andre fikk det rett i trynet når vi ønsket at 290X, som ytelsesmessig var på TITAN-nivå, ville ha den til 5000,-. Vi fikk den enda lavere: 4000,-. I tillegg lanserte AMD Mantle, som de har forsøkt å holde så åpent som mulig.

 

Og hva gjør nVidia? Det de typisk gjør. Lanserer GTX 780 Ti til en pris som de kan stappe opp i ræva. Og ikke nok med det. De lanserer G-Sync, og lukker det bevisst. Og argumentasjonen er at "Vi vil ikke gjøre jobben for andre. De får lage egne løsninger selv". Om du kan lese mellom advokatlinjene, kan du forstå hvor frekt, useriøst og fordervende sånt tankegang er. Og det beviste AMD igjen ved å lansere Freesync, med ganske god ironi i navnet. For noe sånt burde tross alt være fritt og åpent!

 

nVidia er GPU-bransjens Apple, og kan dra rett til helvete så vidt jeg vet. Jeg har eid nVidia-kort store deler av livet, men nå som jeg går ut i et liv som student og bor alene, begynner jeg å sette verdien på saker. Og det er ingen verdens ting som kan rettferdiggjøre at et grafikkort som GTX 780 Ti koster 6000,-, når du kan få et 10% dårligere kort, Radeon 290 (Sapphire-versjonen er både kald og stille!), for 3500,-. INGENTING.

  • Liker 1
Lenke til kommentar
ASUS kommer til å tjene rått på G-sync inntil skjermer med DP1.3 og støtte for variabel VBlank kommer på markedet (forventet å komme om en 8-12 måneder.)

Nvidia er ikke interessert i å la AMD/Intel-gpuer ta i bruk G-sync heller, om dette er genialt eller råttent av Nvidia kan diskuteres.

Freesync er ingen løsing på problemet, at GPUen idler frem til neste flip medfører en god del forsinkelser i form av hakking(stuttering). For at noe sånt skal hjelpe halvveis fungere vil operativsystemet trenge en low-latency kernel. Nvidia har forøvrig en slik løsning selv. Eneste fungerende løsning vil være at GPUen gir synkroniseringen til skjermen. Nå har ikke jeg sett spesifikasjonene til DP 1.3 ennå. Jeg håper selvsagt at det kommer en god produsentnøytral standard på dette snart.

 

 

Jeg forventer jo selvfølgelig ikke veldedighet fra Nvidias side, men måten de holder på med G-sync, PhysX/CUDA, og 3DVision bidrar bare til å splitte et marked som strengt tatt burde holde seg samlet.

BTW; PhysX fungerer på alle maskiner, og andre kan implementere CUDA om de ønsker.

 

 

Hvorfor kan ikke produsentene bare la skjermene støtte flere oppdateringsfrekvenser enn kun 60Hz? Da kan man låse spillet til den høyeste FPS det kan holde hele tiden, og sette skjermfrekvensen til samme nummer.

 

F.eks: Hvis spillet ditt alltid ligger over 50 FPS men aldri når opp til 60, lås både skjerm og spill til 50 FPS og 50 Hz. Jevn FPS som matcher skjermsignalet er alltid bedre enn variabel.

Det er praktisk talt umulig å få synkronisert en GPU med skjermen, det er derfor at G-sync gjør det stikk motsatte ved å synkronisere skjermen med GPUen.

 

BTW: Vanlige LCD-skjermer på "60 Hz" kan gjerne operere på 50-60 Hz, avhengig av oppløsning. Og selv når en oppløsning sier 60 Hz så kan det gjerne reelt være mellom 59.9 - 60.3 Hz. (Hvis du har Linux så er det bare å fyre opp en terminal og skrive "xrandr", så får du se litt informasjon om dette)

 

Bra du har skjønt det! For om du kjøper en skjerm med g-sync så kan du hvert 2. år investere i et skjermkort til 2-3000 kroner og kjøre de fleste spill helt smooth. Du slipper med andre ord å kjøpe skjermkort til 5000 kroner for å få samme opplevelse. Så etter noen år er g-sync brikken eller skjermen spart inn. Personlig merker jeg tearing selv på 120hz, og da jeg spiller fps spill så skal jeg garantert ha en g-sync skjerm.

Totalt irrelevant.

 

G-sync vil syknronisere skjermen til GPUen som gjør at du unngår tearing, men det hindrer ikke ujevnheter i bildeflyten. Du har de større ujevnhetene som du lett kan måle som er avhengig av lasten på GPUen. Pluss du har småhakkingen som er langt mer plagsom, som skyldes operativsystemet. For å løse det siste problemet trenger du som nevnt en low-latency kernel.

 

-----

 

Her har jeg laget en liten oversikt over ulike typer latency for spill, legg merke til hva G-Sync hjelper og hva det ikke hjelper.

post-63307-0-45038600-1389989525_thumb.png

Lenke til kommentar

Kan ikke dere folk holde kjeft med "veldedighet"-argumentet? Jeg og mange andre fikk det rett i trynet når vi ønsket at 290X, som ytelsesmessig var på TITAN-nivå, ville ha den til 5000,-. Vi fikk den enda lavere: 4000,-. I tillegg lanserte AMD Mantle, som de har forsøkt å holde så åpent som mulig.

Buhu! Cry me a river!

AMD priser produktene sine etter hva de tror markedet er villig til å betale. De er selvsagt interessert i å tjene så mye penger som mulig.

 

Mantle har de ikke gjort noe forsk på å holde åpent. Det er et elendig spill for galleriet. Mantle er utviklet i hemmelighet sammen med EA/DICE. Hadde de hatt noe ønske om å gjøre det åpent så hadde de gått ut til alle aktørene i bransjen og spurt om input til å lage et low-level API for grafikk.

 

Vi har faktisk allerede et åpent API for grafikk. Det heter OpenGL. Hvorfor kunne ikke AMD heller bidratt mer inn her?

 

Og hva gjør nVidia? Det de typisk gjør. Lanserer GTX 780 Ti til en pris som de kan stappe opp i ræva. Og ikke nok med det. De lanserer G-Sync, og lukker det bevisst. Og argumentasjonen er at "Vi vil ikke gjøre jobben for andre. De får lage egne løsninger selv". Om du kan lese mellom advokatlinjene, kan du forstå hvor frekt, useriøst og fordervende sånt tankegang er. Og det beviste AMD igjen ved å lansere Freesync, med ganske god ironi i navnet. For noe sånt burde tross alt være fritt og åpent!

Selvsagt gjør de det! Igjen så setter Nvidia en pris de regner med at markedet er villig til å betale. Hadde ikke markedet vært villig til dette så hadde de satt ned prisen. Hadde AMD hatt muligheten til å gjøre det samme så hadde de også gjort det!

 

Jepp, de lanserer G-Sync, som i bunn og grunn er en tidlig impementasjon av VESA standarden variable vblank (som Freesync også baserer seg på), som kommer i display port 1.3 produkter som standardiseringen får ut fingern. Hvorfor gjør de dette? Fordi de regner med at markedet er villig til å betale for å være først ute med dette, om det var riktig avgjørelse får vi se om et års tid.

 

Hva sitter Nvidia igjen med når variabel vblank kommer i DisplayPort 1.3? De sitter igjen med en display kontroller som faktisk har implementert deler av den nye standarden, en god mulighet til å selge IP til andre fabrikanter av kontrollere.

 

nVidia er GPU-bransjens Apple, og kan dra rett til helvete så vidt jeg vet. Jeg har eid nVidia-kort store deler av livet, men nå som jeg går ut i et liv som student og bor alene, begynner jeg å sette verdien på saker. Og det er ingen verdens ting som kan rettferdiggjøre at et grafikkort som GTX 780 Ti koster 6000,-, når du kan få et 10% dårligere kort, Radeon 290 (Sapphire-versjonen er både kald og stille!), for 3500,-. INGENTING.

nVidia er ikke noe mer "GPU-bransjens Apple" en hva AMD er.

 

Mulig det er kipt for deg at du som student ikke har råd til å betale 6000 kroner for en GPU. Dette går tilbake til et av de grunnleggende prinsippene om tilbud og etterspørsel. Det er sikkert også kipt at Intel selger "Extreme Edition" prosessorer til nesten 8000 kroner, og du får nesten identisk CPU som er noen få prosent tregere for nesten halve prisen. Gjett hva! De selger samme "Extreme Edition" prosessor med en "Intel Xeon" badge til en enda høyere pris. Igjen. Tilbud og etterspørel!

  • Liker 3
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...