Gå til innhold

KOMMENTAR: – HDR er den største nyheten siden TV-en fikk farger


Anbefalte innlegg

Men over til deres litt opphetede diskusjon her, AtW og effikan.

 

Jeg tror dere snakker litt om hverandre. Slik jeg ser det har begge to rett, men dere står på holdepunkter som bunner litt i misforståelser for hva den andres mening er. AtW har basert seg på tolkning for å gjøre sine forklaringer lettere forståelig, og effikan har basert seg på grunnleggende og ubøyelig fakta. Men begge to har rett slik jeg ser det, kun tolkningen er annerledes.

Endret av IceBlitz
Lenke til kommentar
Videoannonse
Annonse

Men over til deres litt opphetede diskusjon her, AtW og effikan.

 

Jeg tror dere snakker litt om hverandre. Slik jeg ser det har begge to rett, men dere står på holdepunkter som bunner litt i misforståelser for hva den andres mening er. AtW har basert seg på tolkning for å gjøre sine forklaringer lettere forståelig, og effikan har basert seg på grunnleggende og ubøyelig fakta. Men begge to har rett slik jeg ser det, kun tolkningen er annerledes.

 

Begge må tolke meningen i andres innlegg om man skal svare på de, både effikan og jeg. Ingens innlegg er så klare at det er 100% sikkert hva avsenderen mener, ei heller Simen1s innlegg. Begges innlegg er forsåvidt bygd på fakta, men jeg mener mitt om hvilke fakta som er relevant for det som ble skrevet.

 

AtW

  • Liker 1
Lenke til kommentar

 

Men over til deres litt opphetede diskusjon her, AtW og effikan.

 

Jeg tror dere snakker litt om hverandre. Slik jeg ser det har begge to rett, men dere står på holdepunkter som bunner litt i misforståelser for hva den andres mening er. AtW har basert seg på tolkning for å gjøre sine forklaringer lettere forståelig, og effikan har basert seg på grunnleggende og ubøyelig fakta. Men begge to har rett slik jeg ser det, kun tolkningen er annerledes.

 

Begge må tolke meningen i andres innlegg om man skal svare på de, både effikan og jeg. Ingens innlegg er så klare at det er 100% sikkert hva avsenderen mener, ei heller Simen1s innlegg. Begges innlegg er forsåvidt bygd på fakta, men jeg mener mitt om hvilke fakta som er relevant for det som ble skrevet.

 

AtW

 

 

Helt enig.

Lenke til kommentar

Det er direkte hårreisende at enkelte her mener at kontrast kommer av antall bits fargedybde. Kontrast kommer av panelets evne til å regulere mellom minimalt og maksimalt lys, og det har ingenting med hvor mange nivåer det deles inn i mellom der. Hvilke diskrete digitale verdier eller analoge verdier som brukes har heller ingen relevans, det er panelet selv om definerer hvilken lysintensitet en verdi representerer. Så om du har ett panel som opererer på 6-bit, ett på 8-bit og ett på 10-bit så sier det ingenting om panelets kontrast. Et godt eksempel på dette er om du bruker en analog utgang fra et skjermkort, da konverteres den diskrete informasjonen i en RAMDAC-brikke på skjermkortet, denne kan konvertere alt fra 6- til 10-bits til analoge signaler uten at det har noe å si på panelets evne til å representere maksimal kontrast.

Når du har et panel som støtter 8-bit eller 10-bit så angir det bare hvor presist det kan finregulere lysstyrken, og det er ingen problem å påvise at der er ingen sammenheng med kontrast:
M270HW02 V2 8-bits VA-panel ~5000:1 i kontrast (s.6)
LM290WW1 8-bits IPS-panel ~1000:1 i kontrast (s.24)
M270DTN01.3 8-bits TN-panel ~1000:1 i kontrast
LM240WU8 6-bits IPS-panel ~1000:1 i kontrast (s. 19)
LM300WQ6-SLA1 10-bits (native) IPS-panel ~1000:1 i kontrast.
Jeg kunne gravd frem tusenvis av eksempler fra datablad, men dere må forstå poenget snart.

Her ser dere også dokumentasjon på hvordan kontrast måles, og med hvilket utstyr:
post-63307-0-97141900-1454450771_thumb.png

Her ser du hvordan det ser ut når TFTCentral måler kontrast:
post-63307-0-87123200-1454450781_thumb.png

Jeg nekter å tro på at enkelte av dere som har mangeårig teknologiinteresse og "god" kjennskap til PCer tror at antall bits i bildesignalet fra skjermkortet gir kontrasten på skjermen. Dere kan ikke være så totalt kunnskapsløse, og det dere gjør er bevisst trolling.

 

De fleste sitter tross alt på en 6-bits billigskjerm, og de har garantert mer enn 1:64 i kontrast.
 

Ja, ble både klokere, og litt forvirret. Hvis man hadde kjøpt en 10-bit skjerm i dag; https://www.dustinhome.no/product/5010759405/multisync-pa272w. Er det ikke 10-bit all the way, eller leverer skjermkortet (la oss si nVidia GT970 med DP) kun 8-bit som skjermen "oppgraderer" til 10-bit ved å gjette?

I Windows så leverer GeForce-kort ikke mer enn 8-bit. Skal du ha 10-bit så må du ha Quadro, og dessuten så støtter ingen spill som jeg vet om dette. Og litt av forklaringen er nok at de ikke kan tegne til en vanlig framebuffer med 10-bit per farge uten å ofre alpha-kanalen, noe alle 3D-spill trenger.

Basert å informasjon fra (1) og (2) er det følgende panel i skjermen LM270WQ3-SLA1, som ikke støtter 10-bit native men gjennom A-FRC-interpolering.

Jeg har drømt om 10-bits fargedybde i spill i mange år, men vi er fremdeles ikke der.

  • Liker 2
Lenke til kommentar

Det er direkte hårreisende at enkelte her mener at kontrast kommer av antall bits fargedybde. Kontrast kommer av panelets evne til å regulere mellom minimalt og maksimalt lys, og det har ingenting med hvor mange nivåer det deles inn i mellom der. Hvilke diskrete digitale verdier eller analoge verdier som brukes har heller ingen relevans, det er panelet selv om definerer hvilken lysintensitet en verdi representerer. Så om du har ett panel som opererer på 6-bit, ett på 8-bit og ett på 10-bit så sier det ingenting om panelets kontrast. Et godt eksempel på dette er om du bruker en analog utgang fra et skjermkort, da konverteres den diskrete informasjonen i en RAMDAC-brikke på skjermkortet, denne kan konvertere alt fra 6- til 10-bits til analoge signaler uten at det har noe å si på panelets evne til å representere maksimal kontrast.

 

 

Ingen har påstått noe slikt effikan, venligst følg din egen oppfordring og ikke bland sammen fargedybde og dynamisk omfang. Og videre, ikke bland sammen et panels yteevne med en måte å angi kontrast på.

 

AtW

  • Liker 1
Lenke til kommentar

Det er direkte hårreisende at enkelte her mener at kontrast kommer av antall bits fargedybde. Kontrast kommer av panelets evne til å regulere mellom minimalt og maksimalt lys, og det har ingenting med hvor mange nivåer det deles inn i mellom der. Hvilke diskrete digitale verdier eller analoge verdier som brukes har heller ingen relevans, det er panelet selv om definerer hvilken lysintensitet en verdi representerer. Så om du har ett panel som opererer på 6-bit, ett på 8-bit og ett på 10-bit så sier det ingenting om panelets kontrast. Et godt eksempel på dette er om du bruker en analog utgang fra et skjermkort, da konverteres den diskrete informasjonen i en RAMDAC-brikke på skjermkortet, denne kan konvertere alt fra 6- til 10-bits til analoge signaler uten at det har noe å si på panelets evne til å representere maksimal kontrast.

 

 

Ingen har påstått dette.

 

Hvordan går det an å bli så irritert over noe som ingen har sagt?

Lenke til kommentar

Ro så mye du bare vil, men du narrer bare deg selv. Du er tatt på fersken.

"12 bit lineært er 1:4096 i kontrast (fordi 2^12 er 4096)"

 

Riktig, fordi utgangspunktet for diskusjon var påstanden

 

"Et kontrastomfang tilsvarende 12-14 bit lineært" (om kamera)

 

Den dynamiske kontrasten som tilsvarer 12 bit lineært er 1:4096. Om ikke, hva mener du den er? Det er du som blander inn fargedybde, det er du som påstår noen har sagt at alle "8-bits panel" har samme kontrast. Du snakker om andre ting, påstanden kan være helt riktig om kamera også, selv om bildene lagres med 16bits-farger. Det er to forskjellige ting.

 

"Et kontrastomfang tilsvarende 12 bit lineært" er det samme som "1:4096 i kontrast", det er bare formulert på en litt uvanlig måte (antakelig for kameras kontrast gjerne oppgis i stops).

 

AtW

  • Liker 1
Lenke til kommentar

HDR content er vel stort sett bare spill for øyeblikket, tviler på noe annet finnes med HDR. Og er ikke sikker på hvor mange spill som lar deg aktivere og få brukt HDR i så fall. Hvis du vil kjøpe noe basert på HDR nå, så ville jeg ventet. HDR er såvidt begynt å komme. For å få skikkelig HDR er det enda ikke noen skjerm som holder på markedet heller. En ting er å "støtte" det, men HDR er jo for å ha høyere rekkevidde. Sagt enkelt, vise mer av hvordan virkeligheten er og ikke dele virkeligheten opp i en liten kontrastskala og et par farger. Så om den har HDR så vil alt som er en del høyere enn det vi vanligvis har kunne bli kalt HDR, uten at det er nærme skikkelig god HDR.

Lenke til kommentar

HDR content er vel stort sett bare spill for øyeblikket, tviler på noe annet finnes med HDR. Og er ikke sikker på hvor mange spill som lar deg aktivere og få brukt HDR i så fall. Hvis du vil kjøpe noe basert på HDR nå, så ville jeg ventet. HDR er såvidt begynt å komme. For å få skikkelig HDR er det enda ikke noen skjerm som holder på markedet heller. En ting er å "støtte" det, men HDR er jo for å ha høyere rekkevidde. Sagt enkelt, vise mer av hvordan virkeligheten er og ikke dele virkeligheten opp i en liten kontrastskala og et par farger. Så om den har HDR så vil alt som er en del høyere enn det vi vanligvis har kunne bli kalt HDR, uten at det er nærme skikkelig god HDR.

Mange av dagens spill bruker HDR/Bloom i dag, så det er bare snakk om å få standardisert et distribusjonsformat til skjermene (à la Rec. 2020) og implementere en konverteringsalgoritme i shader. Internt bruker spill typisk 32-bits float(ieee754) som har rikelig med presisjon. Jeg er redd at det tar et par-tre år før alt dette faller på plass, men denne gangen er det ikke implementasjonen i spill som et utfordringen, det er snakk om noen få timer med implementasjonsarbeid i eksisterende spillmotorer.

Lenke til kommentar

Det jeg tenkte på var spesifikt i forhold til kjøpsråd, så det du sier er vel omtrent det jeg har fått med meg at det er. Det er egentlig HDR klart med spill, men du kunne ikke bare tatt en HDR skjerm og koblet til TVen og spilt med HDR i dag. Spillet vet jo ikke hvilket fargespekter det skal gå etter osv. Så når det finnes skjermer som følger en slik standard så vil det ikke være vanskelig å hvertfall spille spill i HDR. Men slik det er i dag er det ikke noe poeng i å kjøpe skjerm med tanke på HDR.

 

Tror jeg fikk alt riktig nå :p

Lenke til kommentar

Ja, du ser ut til å ha grei forståelse av saken ;)

 

Jeg tror du skal slite med å finne skjermer i dag med "HDR-støtte", så det er vel ikke noe alternativ en gang. Uansett må vi nok vente på OLED-skjermer før vi får ordentlig støtte, så det blir raskt et par-tre år før utvalget blir bedre.

 

Men vi vil nok se tilnærminger i high-end-skjermer snart:

NEC Announces MultiSync PA322UHD-2 Ultra HD Monitor

Free MultiProfiler software for complete control of picture modes, enabling additional presets like REC 709, BT.2020 and simple ICC profile emulation

Hva de nå legger i det...
Lenke til kommentar
  • 2 uker senere...

 

Glem 3D og høy oppløsning, det er flere farger, bedre lysstyrke og kontraster vi vil ha.

Snakk for deg selv, jeg vil ha i både pose og sekk. 4K 3D HDR 60-120 fps.

 

Skjønner ikke hvorfor dere må innprente gang på gang at 3D er en flopp. 3D hadde en treg start på grunn av prisdifferanse og mangel på 3D filmer, men det er ikke dermed sagt at folk hater det. 3D passer ikke til alt, men det har sin sjanger og jeg synes ikke dere bør rakke ned på det.

 

 

At lite apropos til 3D-diskusjonen som har vært i denne tråden:

 

http://www.dinside.no/936000/samsung-legger-ned-3d-tv

 

Samsung kutter 3D, LG har tidligere indikert at de går i en liknende retning. 

AtW

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...