Gå til innhold

Nå lanserer Samsung en kurvet spillskjerm med kvanteprikker


Anbefalte innlegg

Videoannonse
Annonse

 

De frir til spillere, men tilbyr kun freesync? Seriously?

 

Forhåpentligvis dropper alle G-sync ganske raskt, det er det beste for spillerene.

 

AtW

Forhåpentligvis adapterer Nvidia Freesync, men siden sjansen der er relativt liten så er det synd at disse mangler G-sync.

 

Freesync har også manco på refresh rate der den støtter Freesync, mens G-sync har større Refresh rate -vindu.

  • Liker 1
Lenke til kommentar

 

De frir til spillere, men tilbyr kun freesync? Seriously?

 

Forhåpentligvis dropper alle G-sync ganske raskt, det er det beste for spillerene.

 

AtW

 

 

Det beste for spillere hadde vel vært at AMD støttet G-Sync, da det uten tvil er bedre enn Freesync. Det enkleste hadde selvfølgelig vært at Nvidia hadde begynt å støtte Freesync (og AMD G-Sync), så man selv kunne velge hva man ville ha.

  • Liker 1
Lenke til kommentar

 

 

De frir til spillere, men tilbyr kun freesync? Seriously?

Forhåpentligvis dropper alle G-sync ganske raskt, det er det beste for spillerene.
 

 

AtW
 
Det beste for spillere hadde vel vært at AMD støttet G-Sync, da det uten tvil er bedre enn Freesync.
 
Problemet er ikke at AMD ikke vil støtte G-Sync, men at Nvidia ikke vil dele (den proprietære og lisensierte) G-Sync med AMD.
At G-Sync-skjermer har bedre specs enn Freesync-skjermer ligger meg bekjent mye i at, vel, G-Sync-skjermer blir laget med bedre specs enn Freesync-skjermer. Dette ligger nok mye i produsentenes prioritering.
 
Det enkleste hadde selvfølgelig vært at Nvidia hadde begynt å støtte Freesync (og AMD G-Sync), så man selv kunne velge hva man ville ha.
 
...og her ligger bikkja begravet :) Hvis du vet at Nvidia ikke vil dele G-Sync; ikke vil bruke Adaptive-Sync; ikke vil bruke Freesync, blir Nvidia sin strategi tydelig.
Om du har kjøpt en PC-skjerm til 13'000 kroner, som kjører 60 Hz med AMD og 100 Hz med Nvidia, hvilken produsent velger du neste gang du kjøper skjermkort? Sannsynligvis Nvidia.
  • Liker 1
Lenke til kommentar

Jeg foretrekker en åpen og billigere løsning som FreeSync, men pr i dag så støtter bare GSync å kjøres i borderless og med multimonitor så det er jeg helt avhengig av.

 

Forøvrig er det utrolig frustrende at utviklingen på skjermfronten ikke skjer på OLED, HDR, 4K+, og DP 1.3/1.4 men på gimmicker på eldre teknologi.

Lenke til kommentar

 

Det beste for spillere hadde vel vært at AMD støttet G-Sync, da det uten tvil er bedre enn Freesync. Det enkleste hadde selvfølgelig vært at Nvidia hadde begynt å støtte Freesync (og AMD G-Sync), så man selv kunne velge hva man ville ha.

 

Gjerne kom med dokumentasjon som viser at G-Sync er bedre enn Freesync.

 

Er nok begrenset hvor lenge Nvidia kan tviholde på G-sync nå som såpass mange skjermer kommer med Freesync. Jeg skal ha ny skjerm og skjermkort snart, og da er AMD det eneste fornuftige akkurat nå.

  • Liker 3
Lenke til kommentar

Det ser ut som det har gått folk litt hus forbi her. Det Samsung her kaller 1ms MPRT som de oppnår med "Backlight Synchronization" ser i praksis ut som noe vi har ventet på en stund. Nemlig adaptive sync med ULMB. Freesync range er satt til mellom 70 og 144Hz med DP, og 62 til 119 med HDMI.

 

Det kan synes som litt lav minimum, men det kan tenkes at det er på grunn av nettopp "Backlight Synchronization". Om man kommer ned i 30 - 40fps og setter inn en sort frame mellom hvert bilde, så blir nok det flicker fra helvete.

 

Det skal bli svært spennende å se hva slags pris denne ender på. For om den leverer "ekte" 1ms responstid, 3000:1 kontrast, "125%" sRGB fargerom, og "ULMB" og Freesync på likt.. Holy Hell!! Dette kan bli svært svært bra!  :dribble:

Endret av Gabri3L
Lenke til kommentar

Denne får nok bedre bildekvalitet enn de flste gamingskjermer, men fortsatt ikke helt det jeg er ute etter. Ring meg når vi får et ordentlig VA-panel, med 4k, HDR og en skikkelig god ikke-proprietær adaptive sync-løsning og 144 hz eller mer. Dagens toppspeccede gamingskjermer bruker IPS-paneler, og det medfører for mange kompromisser til at det er verdt prisen. Backlight bleed/IPS glow, æsj.

Oled hadde jo vært enda bedre, men det er nok et stykke unna. I mellomtiden får jeg fortsette å bruke TV-en min som PC-monitor.

Endret av Jakoozie
Lenke til kommentar

Denne får nok bedre bildekvalitet enn de flste gamingskjermer, men fortsatt ikke helt det jeg er ute etter. Ring meg når vi får et ordentlig VA-panel, med 4k, HDR og en skikkelig god ikke-proprietær adaptive sync-løsning og 144 hz eller mer. Dagens toppspeccede gamingskjermer bruker IPS-paneler, og det medfører for mange kompromisser til at det er verdt prisen. Backlight bleed/IPS glow, æsj.

 

Oled hadde jo vært enda bedre, men det er nok et stykke unna. I mellomtiden får jeg fortsette å bruke TV-en min som PC-monitor.

 

Så du bruker med andre ord en Lada fordi du ikke kan kjøpe en flyvende bil?

  • Liker 3
Lenke til kommentar

 

 

Det beste for spillere hadde vel vært at AMD støttet G-Sync, da det uten tvil er bedre enn Freesync. Det enkleste hadde selvfølgelig vært at Nvidia hadde begynt å støtte Freesync (og AMD G-Sync), så man selv kunne velge hva man ville ha.

Gjerne kom med dokumentasjon som viser at G-Sync er bedre enn Freesync.

 

Er nok begrenset hvor lenge Nvidia kan tviholde på G-sync nå som såpass mange skjermer kommer med Freesync. Jeg skal ha ny skjerm og skjermkort snart, og da er AMD det eneste fornuftige akkurat nå.

 

 

Kom gjerne med dokumentasjon at freesync er bedre/like bra som g-sync :p

 

 

 

pr i dag så støtter bare GSync å kjøres i borderless og med multimonitor

 

JEg vet iallefall det er mange freesyncskjermer som har dårlige "freesyncrange". Kan nok ha noe med at de bruker billigere paneler, for å fremheve at freesync er billigere.

  • Liker 1
Lenke til kommentar

Denne får nok bedre bildekvalitet enn de flste gamingskjermer, men fortsatt ikke helt det jeg er ute etter. Ring meg når vi får et ordentlig VA-panel, med 4k, HDR og en skikkelig god ikke-proprietær adaptive sync-løsning og 144 hz eller mer. Dagens toppspeccede gamingskjermer bruker IPS-paneler, og det medfører for mange kompromisser til at det er verdt prisen. Backlight bleed/IPS glow, æsj.

 

Oled hadde jo vært enda bedre, men det er nok et stykke unna. I mellomtiden får jeg fortsette å bruke TV-en min som PC-monitor.

Ettersom denne har en kontrast oppgitt til 3000:1 er det rimelig å anta at den bruker et VA-panel, ettersom den verdien er alt for lav for dynamisk kontrast og alt for høy for IPS.

 

HDR er tullete å ønske seg i en monitor i dag, de TV-ene som er kantbelyst med VA-panel som angivelig "støtter" HDR leverer knapt to tredjedeler av det spesifiserte fargerommet og har en brøkdel av kontrasten HDR virkelig er designet for å levere. Hvis du er ute etter HDR er det en bildeteknologi med selv-emitterende piksler som gjelder, ikke LED-LCD

Lenke til kommentar

 

 

De frir til spillere, men tilbyr kun freesync? Seriously?

 

Forhåpentligvis dropper alle G-sync ganske raskt, det er det beste for spillerene.

 

AtW

Forhåpentligvis adapterer Nvidia Freesync, men siden sjansen der er relativt liten så er det synd at disse mangler G-sync.

 

Freesync har også manco på refresh rate der den støtter Freesync, mens G-sync har større Refresh rate -vindu.

 

 

 

De frir til spillere, men tilbyr kun freesync? Seriously?

 

Forhåpentligvis dropper alle G-sync ganske raskt, det er det beste for spillerene.

 

AtW

 

 

Det beste for spillere hadde vel vært at AMD støttet G-Sync, da det uten tvil er bedre enn Freesync. Det enkleste hadde selvfølgelig vært at Nvidia hadde begynt å støtte Freesync (og AMD G-Sync), så man selv kunne velge hva man ville ha.

 

Eller at alle bare støtter Adaptive Sync og ikke prøver å komme med egne navn på en standard? Freesync er heller ikke en standard. Adaptive Sync er, og den er 100% gratis for alle å bruke, og ligger i spesifikasjonene til Displayport. Nvidia bruker ren adaptive sync i laptoper. Så når folk her påstår at Nvidia har en proprietær G-sync teknologi som de aldri vil gå bort fra så er det feil. Laptoper med G-Sync bruker Adaptive sync over DP. Akkurat som Freesync. De vil nok dessverre aldri støtte hverandres implementasjon av Adaptive sync derimot. Og det er det en god grunn til: penger. Slike ting som dette er 100 ganger bedre for den med 80% markedsandel som den med 20%. Nvidia kom med G-Sync før Adaptive sync, men hvorfor skulle de slutte å tjene penger av ingen grunn? De kan nok gjerne gå over til Adaptive Sync på alt istedenfor egen modul, og dermed matche Freesyncs skjermer sine priser, men det å bli enig med AMD om å bruke samme Adaptive Sync implementasjon er tap av penger for Nvidia.

 

Jeg foretrekker en åpen og billigere løsning som FreeSync, men pr i dag så støtter bare GSync å kjøres i borderless og med multimonitor så det er jeg helt avhengig av.

 

Forøvrig er det utrolig frustrende at utviklingen på skjermfronten ikke skjer på OLED, HDR, 4K+, og DP 1.3/1.4 men på gimmicker på eldre teknologi.

Gimmick? Kvantepiksler? KVantepiksler er langt ifra gimmick, det er utrolig bra. Bildet blir mye bedre av det. DP har ellers ingenting med skjerm å gjøre. HDR er UMULIG på LCD uten kvantepiksler. Samsung er ellers selskapet som er nærmest en OLED desktop skjerm, så tror ikke jeg ville klaget på dem at de ikke utvikler OLED. De er 1 av 2 selskaper i verden som gjør det. Den andre er tilfeldigvis LG som er verdens største produsent av IPS paneler til skjermer. AUO som lager de fleste gamingskjermer (Benq, Acer, Asus osv) har derimot ikke noe veldig OLED forskning.

 

Det ser ut som det har gått folk litt hus forbi her. Det Samsung her kaller 1ms MPRT som de oppnår med "Backlight Synchronization" ser i praksis ut som noe vi har ventet på en stund. Nemlig adaptive sync med ULMB. Freesync range er satt til mellom 70 og 144Hz med DP, og 62 til 119 med HDMI.

 

Det kan synes som litt lav minimum, men det kan tenkes at det er på grunn av nettopp "Backlight Synchronization". Om man kommer ned i 30 - 40fps og setter inn en sort frame mellom hvert bilde, så blir nok det flicker fra helvete.

 

Det skal bli svært spennende å se hva slags pris denne ender på. For om den leverer "ekte" 1ms responstid, 3000:1 kontrast, "125%" sRGB fargerom, og "ULMB" og Freesync på likt.. Holy Hell!! Dette kan bli svært svært bra!  :dribble:

Du vil ikke ha 125% sRBG. Jeg forstå ikke hvordan Samsung kan reklamere for det som noe bra, og forstår ikke at tek ikke kommenterer det! Det å oppgi dekning av fargerom i prosent gir på en måte mening, men det gjør og at folk tror at 125% er bra. Mer enn 100% kan ikke være dårlig liksom. Egentlig er fargerom som white point. Altså du har et spesifikt tall du skal over. Hvis skjermen din har 7500K white point er det høyere enn 6500K, men det er jo ikke bedre. Du vil ha den som er 6500K, siden den er nærmere perfekt hvit.

 

Hvis du noen gang har hatt en Samsung telefon, og brukt "kino/dynamisk" eller lignende modus, så vet du hva 125% sRBG ser ut som. Det er det som er saturerte farger. 125% sRBG betyr og nesten 100% og at fargetemperaturen er rundt 7500K. Så om du liker dette, så helt fint, men vær obs på at 125% sRBG ikke er bedre enn 100%. nærmest 100% er best. Over 100% ser bedre ut enn under 100% (mer livlig, mer fargerikt). 7500K ser mer ut som det vi oppfatter som hvit som oftest enn 6500K også. Sannsynligvis fordi vi er vant til blålige skjermer. Min IPS skjerm ser mye hvitere ut enn min 6500K 100% sRGB mobilskjerm, men jeg vet at mobilen min er mest korrekt hvit (du ser den er klart varmere).

 

Kunne vært verre, noen leverer quantum dot skjermer i kun Adobe RBG, som ikke er støttet i Windows, så da blir alle farger feil i alt omtrent. Adobe RBG, DCI osv er ikke poeng i i Windows, da det er opp til programmer om de støtter det eller ikke. Ingen OS støtte for noe annet enn sRBG. Sannsynligvis kan Samsung skjermen stilles til en 100% sRBG preset i menyen.... forhåpentligvis hvertfall :)

 

Merk og, 100% sRBG betyr ikke at den viser fargene korrekt. Bare at den kan klare å vise alle fargene :p Den kan fortsatt ha forferdelige feil. Vise grått som lyseblått osv, og fortsatt ha 100% sRGB. Tallet er egentlig ubrukelig alene.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...