Gå til innhold

KOMMENTAR: – HDR er den største nyheten siden TV-en fikk farger


Anbefalte innlegg

 

Men når det gjelder RAW-bilder som har mye mer dynamikk enn JPG. Vil de se annerledes ut på et 10-bit panel kontra 8-bit panel? Hvorfor ikke?

Ser ingen grunn til at dette ikke skal kunne gå an, så lenge noen skriver et bildefremvisingsprogram som er klar over at det leverer til en 10-bit skjerm.

 

Takk. det oppklarer. Jeg vurderte å kjøpe ny skjerm, men da venter jeg litt til 10-bit er litt mer moden.

Lenke til kommentar
Videoannonse
Annonse

Jeg fant en illustrasjon av hva HDR er for noe hos Anandtech.

Noe annet som er verdt å få med seg fra den lenkede artikkelen er en av utfordringene med kommende "HDR":

 

 

As for the display and TV market, I think the move to Rec. 2020 will be delayed as manufacturers ship DCI-P3 panels instead, and that’s quite unfortunate.

 

...although I am very disappointed by the efforts of a group of companies to push DCI-P3 support into these specifications in addition to Rec. 2020 because their display technology isn’t capable of reproducing that color space entirely. I was able to see quantum dot panels this year that covered over 90% of the Rec. 2020 gamut, and the use of a second smaller gamut may cause problems down the line with input and output chains that don’t handle the color management for P3 content properly when displays move to Rec. 2020 displays. Consumers with newer Rec. 2020 displays might end up seeing oversaturated pictures, or owners of DCI-P3 panels may have to deal with under saturation of Rec. 2020 content.

Lenke til kommentar

 

 

Forutsetter imidlertid at vinduer er 100% blendet eller vinter. samt at alt lys i etasjen er slått av. Selv den minste lyskilde er nok til å ødelegge.

 

Hva slags panel har du, og hva skjer når du har forstyrrende lyskilder? Min er forøvrig en plasma. 

 

 

Flimrer som et helvete med aktive briller.

 

AtW

 

 

Mener du det alltid flimrer, eller når, som newman sier, det er forstyrrende lyskilder? 

 

Per definisjon må vel shutterglasses alltid kunne anklages for flimmer. Men det er rart hvordan forskjellene er fra modell til modell/teknologi til teknologi. Jeg lot være å kjøpe den Panasonic plasmaen jeg hadde lyst på, fordi bildet flimret synlig og plagsomt for meg i butikken, og da jeg slo det opp på nett var det mange andre som nevnte det, på en ellers populær modell. Når jeg ser 3D på den jeg kjøpte i stedet, blir jeg ikke plaget av flimring, selv om den nødvendigvis er der. Men når brillene er på, er det enkelte av LED-lysene i stua som må ha en uheldig frekvens i forhold til brillene, for noen lys flimrer veldig mens andre - fortsatt LED - ikke gjør det. 

Lenke til kommentar

Men når det gjelder RAW-bilder som har mye mer dynamikk enn JPG. Vil de se annerledes ut på et 10-bit panel kontra 8-bit panel? Hvorfor ikke?

Råfiler er ikke bilder men rådata. Det må først digitalt fremkalles et bilde i et format som takler 10 bit eller mer, altså ikke jpeg. I konverteringen fra rådata til bilde setter man en en del parametere som blant annet hvitbalanse og eksponering ("lyshet").

 

Et bilde i et format som takler 10+ bit vil se annerledes ut på et 10 bit display enn et 8 bit bilde. Hovedsaklig bedre detaljer i de mørkeste og lyseste områdene. Sort blir sortere og hvit blir hvitere.

Lenke til kommentar

 

 

 

Forutsetter imidlertid at vinduer er 100% blendet eller vinter. samt at alt lys i etasjen er slått av. Selv den minste lyskilde er nok til å ødelegge.

 

Hva slags panel har du, og hva skjer når du har forstyrrende lyskilder? Min er forøvrig en plasma. 

 

 

Flimrer som et helvete med aktive briller.

 

AtW

 

 

Mener du det alltid flimrer, eller når, som newman sier, det er forstyrrende lyskilder? 

 

Per definisjon må vel shutterglasses alltid kunne anklages for flimmer. Men det er rart hvordan forskjellene er fra modell til modell/teknologi til teknologi. Jeg lot være å kjøpe den Panasonic plasmaen jeg hadde lyst på, fordi bildet flimret synlig og plagsomt for meg i butikken, og da jeg slo det opp på nett var det mange andre som nevnte det, på en ellers populær modell. Når jeg ser 3D på den jeg kjøpte i stedet, blir jeg ikke plaget av flimring, selv om den nødvendigvis er der. Men når brillene er på, er det enkelte av LED-lysene i stua som må ha en uheldig frekvens i forhold til brillene, for noen lys flimrer veldig mens andre - fortsatt LED - ikke gjør det. 

 

 

Svaret gjaldt lyskilder som du spurte om ja, men det flimrer i bildet også, det er tydelig merkbart for meg.

 

AtW

Endret av ATWindsor
Lenke til kommentar

Jeg ønsker mer fargedybde velkommen, og det er nå sannelig på tide! Det er sikkert fler enn meg som får middagen i retur når de hører ordet "HDR", noe som vi kjenner til fra fotografiets verden. Jeg blir uvel og kvalm når jeg tenker på de utvaskede fargene og lilla-skjærene, og feileksponeringene med for lang lukkertid osv. som fører til uskarpe bilder og vann/sjø/hav som ser ut som potetpurè. Det høres ut som ordet HDR for en gangs skyld blir brukt riktig og at fornuften seirer på tv-markedet endelig.

Lenke til kommentar

Jeg synes 3D er råkult, men det krever minst 65" om man ikke sitter inni TV'en, ellers blir det litt snålt synes jeg. Får jeg valget, velger jeg 3D tvert.

 

Men 3Ds problemer skyldes ikke det faktum at teknologien ikke fungerer, eller at det ikke er kult. Men når man kjøper en TV følger det gjerne med ett sett briller. Skal man kjøpe til en familie på fem settes man fire laken tilbake om man er riktig heldig. En investering mange synes blir drøy.

 

Så er det tilgangen på innhold i 3D, melkekua skal tynes, om du da er så heldig at du kommer over en plate med 3D. For, plate må du gjerne ha for å få til dette.

 

Innen du finner filmen til en overkommelig pris med 3D, har du sannsynligvis sett den allerede.

 

I mine øyne er dette nok et eksempel på at industrien kveler sin egen teknologiske utvikling, og så skal alle klage på salget og si at teknologien er en flopp.

  • Liker 1
Lenke til kommentar

Jeg synes 3D er råkult, men det krever minst 65" om man ikke sitter inni TV'en, ellers blir det litt snålt synes jeg. Får jeg valget, velger jeg 3D tvert.

 

Men 3Ds problemer skyldes ikke det faktum at teknologien ikke fungerer, eller at det ikke er kult. Men når man kjøper en TV følger det gjerne med ett sett briller. Skal man kjøpe til en familie på fem settes man fire laken tilbake om man er riktig heldig. En investering mange synes blir drøy.

 

Så er det tilgangen på innhold i 3D, melkekua skal tynes, om du da er så heldig at du kommer over en plate med 3D. For, plate må du gjerne ha for å få til dette.

 

Innen du finner filmen til en overkommelig pris med 3D, har du sannsynligvis sett den allerede.

 

I mine øyne er dette nok et eksempel på at industrien kveler sin egen teknologiske utvikling, og så skal alle klage på salget og si at teknologien er en flopp.

 

Uenig, problemet er at kvaliteten er for dårlig og har store tekniske svakheter, masse folk er interessert i occulus rift, som er mye mer upraktisk, folk tåler briller om man får nok tilbake, det gjør man ikke.

 

AtW

Lenke til kommentar

 

Jeg synes 3D er råkult, men det krever minst 65" om man ikke sitter inni TV'en, ellers blir det litt snålt synes jeg. Får jeg valget, velger jeg 3D tvert.

 

Men 3Ds problemer skyldes ikke det faktum at teknologien ikke fungerer, eller at det ikke er kult. Men når man kjøper en TV følger det gjerne med ett sett briller. Skal man kjøpe til en familie på fem settes man fire laken tilbake om man er riktig heldig. En investering mange synes blir drøy.

 

Så er det tilgangen på innhold i 3D, melkekua skal tynes, om du da er så heldig at du kommer over en plate med 3D. For, plate må du gjerne ha for å få til dette.

 

Innen du finner filmen til en overkommelig pris med 3D, har du sannsynligvis sett den allerede.

 

I mine øyne er dette nok et eksempel på at industrien kveler sin egen teknologiske utvikling, og så skal alle klage på salget og si at teknologien er en flopp.

 

Uenig, problemet er at kvaliteten er for dårlig og har store tekniske svakheter, masse folk er interessert i occulus rift, som er mye mer upraktisk, folk tåler briller om man får nok tilbake, det gjør man ikke.

 

AtW

 

OR kan ikke sammenlignes, selv om det teknisk sett er en bedre teknologi i og for seg.

 

Nå kan jeg ikke snakke for andre enn meg selv, men jeg tror folk stort sett fint tåler brillene som finnes i dag. Det er som jeg skrev bare for dyrt å kjøpe til hele familien til at det prioriteres når det samtidig er upraktisk og vanskelig å skaffe innhold før man får sett det på andre måter. Opplevelsen blir som jeg skrev best på en større skjerm, minst 65". Det selges mange av disse for tiden, men også ganske mange som kjøpte TV før 3D ble aktuelt. Jeg har fremdeles min 52" som jeg kjøpte for en 7-8 år siden, og det blir ikke å bare kaste denne for å få 3D på stua oppe.

 

Teknologien kan helt sikkert modnes, men 3D fungerer også i dag på en måte som jeg synes gjør filmene bedre.

  • Liker 1
Lenke til kommentar

Opplevelsen er i beste fall middelmådig på stor skjerm også, jeg har vesentlig større bilde enn 65 tommer, 3D brukes sjeldent. Effekten er for dårlig til å være verd nevneverdig bry, ofte mer forstyrrende enn noe annet. 

 

Teknologien er "moden" den er 50 år gammel, den er bare ikke spesielt god. Jeg tror at det ikke støttes av den nye blu-ray-standarden er spikeren i kista, ikke blu-ray, nesten ikke TV, nesten ikke streaming, hvor får man 3D-materiale fra?

 

AtW

Lenke til kommentar

Hovedsaklig fra spill og andre 3D programmer, men det blir nok mer 3D foto når telefoner med doble kamera på baksiden begynner å komme for alvor. Det er lenge spådd å starte i 2016. (Et nylig eksempel) Hele telefonkamera-industrien spår og satser på det. Hittil har det vært en del igjen på modenheten til programvaren for å utnytte det, samt VR for å vise 3D, men begge deler er i ferd med å bli passe modent og utbredt nå.

 

Film og andre tvprogrammer ligger i dvale med hensyn til 3D og vil nok fortsette med det til 3D har tatt av på andre fronter. Avatar ga et en litt for tidlig pangstart for 3D på hjemmefronten. Når får vi den første 360-graders VR-filmen? Når får vi den første 3D VR-filmen? Jeg er sikker på at noen filmskapere veldig gjerne vil bli først ute og forsøker å overbevise investorene sine om at et sånt høyrisiko-prosjekt er verd innsatsen.

Endret av Simen1
Lenke til kommentar

Tidligere når man solgte TV´er så hadde alle TV produsentet noen helt vanvittige kontrast-tall som ikke stemte med virkeligheten. Litt som der noen produsenter får en 7x100 Watt´s forsterker til å bli 700 watt!!!

 

Hvordan blir dette nå med HDR? Hvor "mye" HDR skal det være for at "HDR" blir "HDR"? Er dette en faktisk standard som THX var der det stilles tekniske krav til det fysiske utstyret som skal spille av denne teknologien, eller blir det "kontrastkrigen" atter en gang der man får tullebegreper som HDR+ HDR-ultra og HDR-HighDefinition og HDR-4K osv?

Lenke til kommentar

De vanvittige kontrasttallene for TVer og andre skjermer var reelle, men gjalt dynamisk kontrast, altså ikke samtidig kontrast, men kontrast fra for eksempel scene 1 til scene 2. I samme scene-kontrasten har steget jevnt og trutt takket være bakbelysning i soner. Samtidig har LCD-panelets kontrast økt. OLED tar den typen kontrast ennå et stort steg videre. På PCer har det lenge vært et problem at gjenskinn i matte paneler ødelegger kontrasten, men måler man det i et helt mørkt rom så får man gode kontrasttall. For blanke skjermer er det noe av det samme. Kontrasten varierer også med innsynsvinkel og om vinkelen er langs horisontalen eller vertikalen. For projektorer spiller belysningen i rommet ekstremt stor rolle for kontrasten.

 

Det er altså en hel rekke måter å måle kontrast på og alle er reelle, de bare måler ulike ting på ulike måter. Skal man være veldig spesifikk så må man også være spesifikk på hvilken type kontrast man snakker om og under hvilke forhold.

Lenke til kommentar

De vanvittige kontrasttallene for TVer og andre skjermer var reelle, men gjalt dynamisk kontrast, altså ikke samtidig kontrast, men kontrast fra for eksempel scene 1 til scene 2. I samme scene-kontrasten har steget jevnt og trutt takket være bakbelysning i soner. Samtidig har LCD-panelets kontrast økt. OLED tar den typen kontrast ennå et stort steg videre. På PCer har det lenge vært et problem at gjenskinn i matte paneler ødelegger kontrasten, men måler man det i et helt mørkt rom så får man gode kontrasttall. For blanke skjermer er det noe av det samme. Kontrasten varierer også med innsynsvinkel og om vinkelen er langs horisontalen eller vertikalen. For projektorer spiller belysningen i rommet ekstremt stor rolle for kontrasten.

 

Det er altså en hel rekke måter å måle kontrast på og alle er reelle, de bare måler ulike ting på ulike måter. Skal man være veldig spesifikk så må man også være spesifikk på hvilken type kontrast man snakker om og under hvilke forhold.

 

Siste avsnitt der. Det er nettopp dette som blir så tullete. Måletallene er dermed ikke reele. Frykter det blir det samme her med HDR. At man får TV med blendende solskinn på skjermen og farger som ser ut som de er på LSD. Vil vil virkelig ha det så naturlig at det blir ubehagelig å se på? Det er jo de færreste som ønsker naturlig lyd på film. Dvs at snakking og visking er som det skal være mens jetfly og pistolskudd omtrent blåser ut vinduene i kåken. "En gylden middelvei" er ofte best

 

Ikke noe særlig når man har unger som skal sove i kåken eller naboer...

Lenke til kommentar

Hovedsaklig fra spill og andre 3D programmer, men det blir nok mer 3D foto når telefoner med doble kamera på baksiden begynner å komme for alvor. Det er lenge spådd å starte i 2016. (Et nylig eksempel) Hele telefonkamera-industrien spår og satser på det. Hittil har det vært en del igjen på modenheten til programvaren for å utnytte det, samt VR for å vise 3D, men begge deler er i ferd med å bli passe modent og utbredt nå.

 

Film og andre tvprogrammer ligger i dvale med hensyn til 3D og vil nok fortsette med det til 3D har tatt av på andre fronter. Avatar ga et en litt for tidlig pangstart for 3D på hjemmefronten. Når får vi den første 360-graders VR-filmen? Når får vi den første 3D VR-filmen? Jeg er sikker på at noen filmskapere veldig gjerne vil bli først ute og forsøker å overbevise investorene sine om at et sånt høyrisiko-prosjekt er verd innsatsen.

Avatar solgte utrolig godt på kino. Det var definitivt en suksess. Ikke nødvendigvis fot 3D industrien, men for den filmen så var det stor suksess.

 

Opplevelsen er i beste fall middelmådig på stor skjerm også, jeg har vesentlig større bilde enn 65 tommer, 3D brukes sjeldent. Effekten er for dårlig til å være verd nevneverdig bry, ofte mer forstyrrende enn noe annet. 

 

Teknologien er "moden" den er 50 år gammel, den er bare ikke spesielt god. Jeg tror at det ikke støttes av den nye blu-ray-standarden er spikeren i kista, ikke blu-ray, nesten ikke TV, nesten ikke streaming, hvor får man 3D-materiale fra?

 

AtW

Linus hadde nylig et review av en 3D TV. Han var til da av omtrent samme oppfatning til deg, og løsningen ble rett og slett ikke god nok til at 3D ble bedre enn å bare se det helt vanlig for han og familie. Den LG TVen derimot synes han hadde veldig god 3D, som ikke var plagsom eller belastende og han sa han fint kunne sitte å se på 3D i veldig lange perioder. Så jeg tror at hvis du kjøper rette modellen, og du kjøper en veldig ny TV at 3D har kommet til et punkt der det å se en 3D film innimellom vil gi en bedre opplevelse er reelt. Se og på pris oppgitt av en bruker over meg her. Det at det er enkelte gode modeller nå derimot hjelper ikke så mye. Det er jo ikke så big deal at du kjøper ny TV akkurat. Som betyr at for veldig mange så vil 3D teknologien ikke være bra nok en stund fremover. Så jeg er sånn sett enig med deg der, men jeg er uenig og mener at det finnes enkelte modeller der 3D faktisk gir mening, og er brukbart.

 

Tidligere når man solgte TV´er så hadde alle TV produsentet noen helt vanvittige kontrast-tall som ikke stemte med virkeligheten. Litt som der noen produsenter får en 7x100 Watt´s forsterker til å bli 700 watt!!!

 

Hvordan blir dette nå med HDR? Hvor "mye" HDR skal det være for at "HDR" blir "HDR"? Er dette en faktisk standard som THX var der det stilles tekniske krav til det fysiske utstyret som skal spille av denne teknologien, eller blir det "kontrastkrigen" atter en gang der man får tullebegreper som HDR+ HDR-ultra og HDR-HighDefinition og HDR-4K osv?

Du har en organisasjon som må godkjenne TVene for at de skal få HDR sertifisering. Så langt har toppmodell fra LG og Samsung fått dette. Begge støtter 100% DCHI, 10-bit panel og veldig gode reelle kontrasttall. Så de TVene som har blitt sertifisert der er sertifisert basert på skikkelig tall og er skikkelig vare.

 

LG har jo OLED som er uendelig kontrast i et mørkt rom, men og veldig god i belysning, så ikke et problem der. Samsung sine TVer har lavt sortnivå og veldig høyt maksimalt lysnivå og sonekontrollert bakgrunnsbelysning, ikke kantbelysning. så den og har veldig gode kontrasttall. Usikker på om de bruker VA eller IPS. VA vil jo fint klare 3000:1 hvertfall, og sikkert mer.

 

Ellers har faktisk Samsung kuttet ut dynamisk kontrast tallene. De skriver noe lignende "Veldig mye". :p

Lenke til kommentar

Det tar brøkdelen av et sekund å se om en video er filmet med 60fps+ hvorfor sees det helt bort fra høyere fps mht ny tek.?

 

Frustrerende å se storslåtte filmer.. der flotte scener ødelegges pga lav fps ved panorering og rask kameraføring.

Det er nok de aller fleste på forumet her enige om. Problemet er at den store andelen ikke er klar over den store forskjellen mellom 30 og 60. Hvis du viser dem ser de det lett. Hvis du ikke viser dem vet de ikke hva 60 fps er. Det finnes en stor skare med folk som påstår 30 fps er bedre også. Ikke bare til konsoll, men også film. Mange negative reaksjoner på Hobbiten sin 48 fps.

 

Filmindustrien liker det ikke, fordi det betyr ekstra kostnad. De som leverer TV må og levere mer båndbredde. For elektronikkprodusenter hadde det vært fantastisk. Derfor TVer kommer med høye refreshrates. Derfor spillskjermer osv har det. I spill koster det ikke ekstra, men content creators er sterk imot pga ekstra kostnad. Siden det meste av dette for vår del av verden er sentrert i Hollywood skulle det ikke overraske meg om de har en lobbyorganisasjon som aktivt motsetter seg en slik endring og prøver å lure folk.  Det skulle ikke overraske meg, slikt er veldig vanlig i USA. Hvis de gjør slikt med politikk, da er 30/60 fps ikke overraskende om det skjer der. Det at dette skjer er det nok ikke beviser for, men det at lignende ting skjer og at lobbyorganisasjoner styrer utrolig mye er på ingen måte en konspirasjonsteori. Dermed blir det mer av en naturlig antagelse enn en konspirasjonsteori.

 

Det beste er jo ellers slow-motion action scener filmet i 30 fps... Biler som blir dratt ut og forlenges med 50% :p Det er jo veldig "cinematic" 60 fps hadde blitt altfor raskt her, hvertfall 120 fps. Er jo meningen at bilen skal ha et bluret spor etter seg, er det ikke? Eller blir det jo helt klart unaturlig raskt...

Lenke til kommentar

Fenomenet HDR er absolutt ikke nytt, men den store nyheten her er at HDR blir et distribusjonsformat som av noen få paneler skal vises native.

Fra før av har vi to typer generering av HDR-bilder. Dere som driver med foto er nok godt kjent med HDR som en funksjon som kombinerer bilder av ulik eksponering og deretter konverteres til et bilde som ser omtrent slik ut:
post-63307-0-53150300-1454202417_thumb.jpgpost-63307-0-25791800-1454202426_thumb.jpgpost-63307-0-87644200-1454202432_thumb.jpgpost-63307-0-49173500-1454202647_thumb.jpgpost-63307-0-21322300-1454203092_thumb.jpg
(bilder stjelt fra Wikipedia og diverse andre sider)
Kvaliteten på HDR-bilder er naturligvis avhengig av råbildene som blir tatt, hvordan disse kombineres til ett HDR-bilde og til slutt hvordan HDR-bildet faktisk vises. Sistnevnte er det største problemet som ikke har vært løst før nå, og er nettopp det den nye HDR-standarden for UHDTV dreier seg om. For saken er at når du har et HDR-bilde så kan ikke en normal skjerm vise det, så det konverteres med noe som kalles tone mapping som konverterer bildet til "SDR" og forsøker å bevare kontrast så pikslene sin nye lysstyrke maksimeres i forhold til regionen rundt. Detaljene i konturer bevares på bekostning av de fleste øvrige aspekter av bildekvalitet.
post-63307-0-92793400-1454203181.jpgpost-63307-0-75325400-1454203185_thumb.jpgpost-63307-0-45997300-1454203189_thumb.jpg
Og det er nettopp her at HDR-bilder blir "stygge" og "urealistiske". Områder som er veldig lyssterke blir uskarpe(1), skygger forsvinner i stor grad(2), og en rekke konturer i flater(3) overdrives ekstremt. Hvis du har en mørk stjernehimmel med lyssterke stjerner så blir områdene rundt stjernene opplyst. Lyssterke områder ser nesten ut til å "gløde".

Dette gjør at mange bilder ser litt "tegneserieaktig" ut:
post-63307-0-13641700-1454202536_thumb.jpg

 

Den andre måte HDR-bilder kan genereres på er i spill og simulatorer. Og dette har vi allerede hatt siden DirectX 9.0c og OpenGL 1.4, og har vært vanlig i spill i et tiår. Fordelen her er at selve HDR-bildet kan genereres rimelig perfekt, i motsetning til alle utfordringene  som oppstår for et kamera som skal ta bilder til et HDR-bilde. På tilsvarende vis konverteres dette HDR-bildet til et ferdig bilde med en form for tone mapping, som oftest kalles for "HDR/bloom" i spill. Ulempene med denne konverteringen er i stor grad den samme som med bilder fra kamera, og som er grunnen til at en rekke spillere (meg inkl.) ofte ønsker å slå av HDR/bloom i spill fordi det er travelt å se på:
post-63307-0-55672100-1454203584_thumb.jpgpost-63307-0-16891700-1454203594_thumb.jpg
(flere eksempler)

Jeg ser frem til at vi får etablert en skikkelig standard for dette også på PC-skjermer. Men jeg ser for meg at de fleste skjermer og TVer som selges som HDR-kompatible i realiteten ikke er det, med tanke på begrensningene i LCD-teknologien som i realiteten ikke er i stand til å klare dette. Det blir nok en blanding av juksing med baklys og "tone mapping"-filtrering for å tilnærme seg standarden, men det burde være rimelig åpenbart for de fleste at bare OLED og andre fremtidige teknologier er i stand til å representere dette rimelig bra.
 

Skjønner ikke hvorfor dere må innprente gang på gang at 3D er en flopp. 3D hadde en treg start på grunn av prisdifferanse og mangel på 3D filmer, men det er ikke dermed sagt at folk hater det. 3D passer ikke til alt, men det har sin sjanger og jeg synes ikke dere bør rakke ned på det.

3DStereoskopi har sin hensikt, men effekten på dybdesynet er bare betydelig på svært kort avstand. Derfor har det nær ingen hensikt på TV eller kino. Filmer bruker å overdrive effekten for at du i det hele tatt skal se noe av den, som også er årsaken til at folk føler ubehag når de ser på det. Hvis du skal ha rett stereoskopi på TV/kino så blir effekten så marginal at den knapt merkes.

For det andre så vil et lerret eller én skjerm som genererer et stereoskopis bilde aldri bli fritt for forvrengninger. Egentlig skal nemlig hvert øye ha sitt bilde normalt på, noe som er umulig å oppnå uten VR-briller, som forøvrig er det eneste stedet hvor stereoskopi gir noe mening.
 

Det neste store hoppet blir TV'er hvor svart faktisk er svart (igjen), noe som ikke eksisterer på en eneste LEDLCD-TV. Kanskje OLED, kanskje noe annet.

Ja CRT hadde faktisk mer ikke-lineær lysstyrke som ligner noe mer på transferfunksjonen som brukes i "HDR" (Rec._2020), mens LCD-paneler har nesten linær lysstyrke fra "sort" til hvitt. De LCD-panelene som viser mørkere sort manipulerer baklyset gjennom lokal dimming, som introduserer stor lokal fargefeil.
 

Kan noen forklare meg hva HDR i denne sammenhengen faktisk er?

Med glede ;)

- På en typisk LCD-skjerm vises RGB-verdier fra 0-255(8-bit) tilnærmet lineært.
- På en "kalibrert" HDTV(Rec. 709) vises RGB-verdier 16-235/240(8-bit) som er linær i nedre del og eksponentiell i øvre del, men er likevel "nesten" linær i det meste av skalaen (du klarer ikke å se det så lett). Standarden har et definert fargerom(gamut) for "nøytralverdien" 128, selv om langt fra alle TVer er i nærheten av dette.
- På en "HDR" UHDTV(Rec._2020) gjøres flere ting:
- Utvidet fargerom, spesielt i grønnfarge som øyet er mest sensitivt for.
- Krever 10 eller 12 bits fargedybde som gir rom for flere graderinger mellom farger.
10-bit gir RGB-verdier 64-940
12-bit gir RGB-verdier 256-3760
- Krever høyere oppløsning
- Krever progrssive scan (altså ikke linjeflettet (fantastisk ord))
- "Transferfunksjonen"(SMPTE ST 2084) endres litt, dvs. konvertering fra RGB-verdier til lysstyrke. Nedre del er fremdeles lineær, så jeg er spent på hvor mye det merkes nær helt sort. Selv "avanserte" TV-kalibreringer bruker ikke å måle dette nøyaktig.

Nå har ikke jeg tatt bryet med å plotte funksjonen, men det sier seg selv at det som er "sort"(16) etter dagens standard blir et tall over 16 i den nye, og det som er "hvitt" i dag(235) blir et tall over 235. Vi vil altså trenge en konverteringsfunksjon for å vise eksisterende bilder som før.

I praksis skal altså "HDR" gi flere trinn mellom dagens 16-235 i RGB-verdier, samt noe over og noe under. ;)
 

Hvis dette stemmer, vil i så fall HDR filmer kreve langt mer data og mye større filstørrelser.
Om dette skal komprimeres slik BluRay komprimeres i dag ville en 4K HDR film bli på 3-500 GB fremfor 50GB som FHD filmer er på.

Ja, nettopp.
Nå er h.265 "dobbelt så effektiv", men 4K firedobler antall piksler og 12-bit HDR øker størrelsen av hver piksel med 50% på toppen av det. Riktig nok blir komprimeringen noe mer effektiv med høyere fargedybde. Du må regne med at streaming kommer til å kjøre dette med latterlig lav bitrate i mange år fremover.

En liten digresjon;
Folk vil nok innse at de milliardene med skattepenger som ble brukt på det digitale bakkenettet var en dårlig investering når hele nettet blir "utdatert" innen få år. Den båndbredden burde vært frigjort til mobil datatrafikk, og så de pengene heller brukt på sponsing av infrastrukur i fiber eller lignende. :no:
 

Men når det gjelder RAW-bilder som har mye mer dynamikk enn JPG. Vil de se annerledes ut på et 10-bit panel kontra 8-bit panel? Hvorfor ikke?

10-bits LCD-paneler har eksistert i over 10 år, men de følger ikke denne nye standarden. Hvis du har to 10-bits grafikerpanel sidestilt og det ene opererer i 8-bits-modus og det andre i 10-bits-modus, så vil et 10-bits bilde på begge paneler vises med samme rekkevidde fra sort til hvitt, men 10-bits-panelet vil vise 4 ganger så mange graderinger mellom.

I tillegg har vi lenge hatt kamera som opererer med rådata-format i høyere enn 8-bit. Nøkkelen blir da hvordan dette konverteres til et distribusjonsformat, og det er her standarden for "HDR" for UHDTV endrer på ting. Jeg håper at vi snart får tilsvarende for PC-skjermer, slik at det blir relativt forutsigbart hvordan RGB-verdien x,y,z skal vises på en skjerm.
 

Skal vi peke på én annen endring som virkelig satte fart på TV-industrien var nårda TV-skjermene ble flate.

Nå som TV-en plutselig kunne henges på veggen, ble de en fornuftig investeringene for deg som satt på en rådyr leilighet i Oslo-sentrum – hvor de gamle drogene av noen bilderørs-TV-er ofte kunne beslaglegge én hel kvadratmeter eller to.

Jeg kan ikke fordra at selv dere journalister som jobber med AV omtaler LCD/Plasma/OLED som "flatskjerm" kontra CRT. Dere skal vite utmerket godt at det fantes flate CRT og bakprojeksjon i årevis før Plasma og LCD tok av på markedet. Det dere egentlig snakker om her er at LCD/Plasma/OLED er tynt, ikke flatt.
 

Forskjellen er så stor at jeg vil påstå at en blindtest mellom 4K og 4K med HDR ville gitt helt andre resultater enn forskjellen vi fant mellom 4K og HD.

En av grunnene er at skjermstørrelsen ikke er en avgjørende faktor for hvorvidt du klarer å se forskjellen – elementer som lys og farger kan skilles omtrent uansett størrelse og avstand.

Og her må vi nok regne med at TV-produsentene kommer til å lage en "vivid"-modus som avviker fra standarden (som vanlig) for å overdrive forskjellene, og folk kommer til å kjøpe den TVen med de mest "glorete" fargene.

  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...