Gå til innhold

Nå kan du oppgradere Asus-skjermen din til G-Sync


Anbefalte innlegg

Buhu! Cry me a river!

AMD priser produktene sine etter hva de tror markedet er villig til å betale. De er selvsagt interessert i å tjene så mye penger som mulig.

 

Mantle har de ikke gjort noe forsk på å holde åpent. Det er et elendig spill for galleriet. Mantle er utviklet i hemmelighet sammen med EA/DICE. Hadde de hatt noe ønske om å gjøre det åpent så hadde de gått ut til alle aktørene i bransjen og spurt om input til å lage et low-level API for grafikk.

 

Vi har faktisk allerede et åpent API for grafikk. Det heter OpenGL. Hvorfor kunne ikke AMD heller bidratt mer inn her?

 

Selvsagt gjør de det! Igjen så setter Nvidia en pris de regner med at markedet er villig til å betale. Hadde ikke markedet vært villig til dette så hadde de satt ned prisen. Hadde AMD hatt muligheten til å gjøre det samme så hadde de også gjort det!

 

Jepp, de lanserer G-Sync, som i bunn og grunn er en tidlig impementasjon av VESA standarden variable vblank (som Freesync også baserer seg på), som kommer i display port 1.3 produkter som standardiseringen får ut fingern. Hvorfor gjør de dette? Fordi de regner med at markedet er villig til å betale for å være først ute med dette, om det var riktig avgjørelse får vi se om et års tid.

 

Hva sitter Nvidia igjen med når variabel vblank kommer i DisplayPort 1.3? De sitter igjen med en display kontroller som faktisk har implementert deler av den nye standarden, en god mulighet til å selge IP til andre fabrikanter av kontrollere.

 

nVidia er ikke noe mer "GPU-bransjens Apple" en hva AMD er.

 

Mulig det er kipt for deg at du som student ikke har råd til å betale 6000 kroner for en GPU. Dette går tilbake til et av de grunnleggende prinsippene om tilbud og etterspørsel. Det er sikkert også kipt at Intel selger "Extreme Edition" prosessorer til nesten 8000 kroner, og du får nesten identisk CPU som er noen få prosent tregere for nesten halve prisen. Gjett hva! De selger samme "Extreme Edition" prosessor med en "Intel Xeon" badge til en enda høyere pris. Igjen. Tilbud og etterspørel!

Du har et godt poeng. Grunnen til at AMD og Nvidia har overlevd i markedet er jo nettopp fordi de har maksimert salget gjennom å selge etterspørselen med riktig pris på tilbudet. Etterspørselen etter nvidia GPU'er er midlertidig noe høyere enn etterspørselen etter AMD GPU'er, og derfor er nvidia-kort selvfølgelig dyrere. Hvorfor folk foretrekker nvidia framfor amd kan man jo lure...

Lenke til kommentar
Videoannonse
Annonse

Det er mulig jeg har lite følsomme øyne, men etter at jeg fikk meg en 120Hz skjerm og er bevisst på at jeg bør kjøre fps så høyt som mulig har jeg knapt lagt merke til noen form for lag eller tearing.

 

Er det mulig at folk er så opptatt av å ikke ha tearing at de ser det ekstra godt? Confirmation bias osv?

Lenke til kommentar

Dere aner ikke hvor tunggrodd Khronos er, og hvor utrolig lite nyvinning det blir i spesifikasjonene når så mange produsenter skal bli enige. At vi i det hele tatt har en så brukbar og oppdatert OpenGL-spesifikasjon i dag er i all hovedsak takket være Nvidia. Nvidia har kunder som trenger ny funksjonalitet og derfor har de CUDA og en lang rekke utvidelser til OpenGL. Dette er også med på å dytte utviklingen fremover.

 

Det er mulig jeg har lite følsomme øyne, men etter at jeg fikk meg en 120Hz skjerm og er bevisst på at jeg bør kjøre fps så høyt som mulig har jeg knapt lagt merke til noen form for lag eller tearing.

 

Er det mulig at folk er så opptatt av å ikke ha tearing at de ser det ekstra godt? Confirmation bias osv?

Høyere oppdateringsfrekvens vil kunne gi omtrent like mye tearing hvis FPSen er høy nok. Det kan være at du bruker vsync og unngår problemet. Utenom eventuelt buffer-latency så blir ikke lag påvirket. (se forrige side for oversikt)

Lenke til kommentar

 

 

Det er en dyr løsning på et problem som egentlig ikke finnes. De eneste jeg kan tenke meg som kommer til å investere i g-sync er de som kjøper skjermkort til 7000 kroner og er villig til å bruke en formue på et skjerm.

De allerfleste av oss nøyer seg med et skjermkort under 2000 kroner og et skjerm til tusenlappen. Hva så om det 'hakker' litt. Har aldri opplevd problemet nvidia påstår de fikser med g-sync.

Da er du heller ikke i målgruppen til G-sync. At du ikke opplever tearing med den kjipe skjermen og skjermkortet ditt betyr ikke at andre ikke gjør det.

Han er ikke alene, spillere flest lærte å ignorere tearing for flere år siden.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...