Gå til innhold
Noe nedetid og ustabilitet mellom 11:40 - 11:55 ×

HBO Max bildekvalitet


Anbefalte innlegg

vidor skrev (7 timer siden):

Det øker jo ikke dette i praksis, men når pixlene blir så små så oppfates det sånn.

Dette bildet ser f.eks ut som det har mer enn bare fargetoner som er 100% svart og 100% hvitt ?

Michelangelo's_David_-_Floyd-Steinberg.p

Det blir jo også alltid en balanse mellom støy og encoding. Logisk sett burde man nok gjort encodinger mest mulig støyfri (råfilm er som regel med veldig høy dynamikk vs konsument-utstyr), og så legge inn støy som en en funksjon i decoderen.

Dither gir opplevelsen av mellomliggende toner («0.5» hvis du bare har «1» og «0» tilgjengelig). Det gjør at jevne graderinger får mindre banding.

Det gir ikke opplevelsen av større fargerom/gamut («1.5»). Til det trenger man HDR eller en annen fargerepresentasjon.

-k

Lenke til kommentar
Videoannonse
Annonse
6 hours ago, knutinh said:

Dither gir opplevelsen av mellomliggende toner («0.5» hvis du bare har «1» og «0» tilgjengelig). Det gjør at jevne graderinger får mindre banding.

Det gir ikke opplevelsen av større fargerom/gamut («1.5»). Til det trenger man HDR eller en annen fargerepresentasjon.

Derav at det er perseptuelt fargerom, ikke teknisk.

Hvis du ser på bildet igjen så tolker du det som noe som har mer enn bare 3 fargetoner, fordi mengden av svart pr. område varierer så klarer du å tyde det som et slags gråtone-bilde som har vesentlig mer enn bare 3 fargetoner fordi pixlene er så små, selv på en PC-skjerm. På en TV som man er lengre unna og som har enda mindre pixler så blir det også mer utjevnet pr. sensoriske "øyepixel".

Endret av vidor
Lenke til kommentar
vidor skrev (1 time siden):

Derav at det er perseptuelt fargerom, ikke teknisk.

Hvis du ser på bildet igjen så tolker du det som noe som har mer enn bare 3 fargetoner, fordi mengden av svart pr. område varierer så klarer du å tyde det som et slags gråtone-bilde som har vesentlig mer enn bare 3 fargetoner fordi pixlene er så små, selv på en PC-skjerm. På en TV som man er lengre unna og som har enda mindre pixler så blir det også mer utjevnet pr. sensoriske "øyepixel".

Vet du hva et fargerom er? Gamut?

-k

Lenke til kommentar
KarvaBlad skrev (På 21.1.2022 den 19.10):

Jeg er ingen ekspert på området, men jeg ville tro at rå, uprossesserte pixler må være av det gode? Hvordan kan det gi mer støy?

Vel det ser styggere ut. Du får komprimerings artefakter, du får banding. Du må ha virkelig høy bitrate for at du ikke skal legge merke til dette i mørke scener. 

Det er jo en grunn til TV-produsentene bruker så mye penger på utvikling av bildeprosessering. Vises denne "støyen" lett (snakker ikke om film grain her), så får TV-produsenten slakt. 

Lenke til kommentar
MrMarbles skrev (37 minutter siden):

Vel det ser styggere ut. Du får komprimerings artefakter, du får banding. Du må ha virkelig høy bitrate for at du ikke skal legge merke til dette i mørke scener. 

Det er jo en grunn til TV-produsentene bruker så mye penger på utvikling av bildeprosessering. Vises denne "støyen" lett (snakker ikke om film grain her), så får TV-produsenten slakt. 

Nå har Hollywood og tv-produsenter gått sammen om en «film mode» som fjerner mye av prosesseringen i tv-er for at kunden lettere skal kunnr se filmen slik produsenten har tenkt det.

TVer må selge. Antagelsen later til å være at den tven som ser «grellest» ut i butikken (overdreven kontrast, farge-saturering, oppskarping, støyfjerning…) får mer oppmerksomhet enn den ved siden av, og blir kjøpt.

Når man vel kommer hjem i stua så opplever mange det slitsomt å se på et slikt bilde i 2 timer. Litt som debattanter som skriver med caps lock på. De som får det til skrur kanskje av denne prosesseringen.

Jeg sier ikke at tv-er ikke skal ha prosessering, men mitt ståsted er at denne først og fremst skal kompensere for svakheter i panelet (responstid, framerate, fargerespons), ikke i kilden.

-k

Endret av knutinh
Lenke til kommentar
knutinh skrev (36 minutter siden):

Nå har Hollywood og tv-produsenter gått sammen om en «film mode» som fjerner mye av prosesseringen i tv-er for at kunden lettere skal kunnr se filmen slik produsenten har tenkt det.

TVer må selge. Antagelsen later til å være at den tven som ser «grellest» ut i butikken (overdreven kontrast, farge-saturering, oppskarping, støyfjerning…) får mer oppmerksomhet enn den ved siden av, og blir kjøpt.

Når man vel kommer hjem i stua så opplever mange det slitsomt å se på et slikt bilde i 2 timer. Litt som debattanter som skriver med caps lock på. De som får det til skrur kanskje av denne prosesseringen.

Jeg sier ikke at tv-er ikke skal ha prosessering, men mitt ståsted er at denne først og fremst skal kompensere for svakheter i panelet (responstid, framerate, fargerespons), ikke i kilden.

-k

Filmmaker mode skrur jo ikke av bildeprosesseringa. Men den skrur av først og fremst frame interpolation. I tillegg alle funksjoner som mpeg noise reduction, sharpening, smooth gradation og setter fargene til de mest realistiske som TVen er pre-kalibrert med (gjerne cinema-mode). 

Utenom dette så er det jo masse prosessering som man ikke har kontroll over. Og det er bl.a. denne som får TVer til å se overlegne ut ovenfor en monitor. 

Lenke til kommentar
MrMarbles skrev (1 time siden):

Filmmaker mode skrur jo ikke av bildeprosesseringa. Men den skrur av først og fremst frame interpolation. I tillegg alle funksjoner som mpeg noise reduction, sharpening, smooth gradation og setter fargene til de mest realistiske som TVen er pre-kalibrert med (gjerne cinema-mode). 

"mpeg noise reduction, sharpening, smooth gradation" er nettopp den slags prosessering som jeg er skeptisk til, og som jeg (og Hollywood) skrur av hvis vi kan.

https://www.nytimes.com/wirecutter/blog/filmmaker-mode-tv-setup/

"Most of those features sound like they do something to improve the image. But the truth is, although they can improve one aspect of the image, they usually hurt another... The biggest potential drawback is that you simply won’t like the look of Filmmaker Mode. Some people prefer a picture mode that isn’t completely accurate."

Sitat

Utenom dette så er det jo masse prosessering som man ikke har kontroll over. Og det er bl.a. denne som får TVer til å se overlegne ut ovenfor en monitor. 

En TV har i noen tilfeller mulighet til å kjøre panelet native på 24 fps (eller et multippel). Mens monitorer ofte bare kan operere på 60 fps. Det er en vesentlig forskjell når man ser på filmer som er filmet i 24 fps. På den andre siden så gjør innholdsleverandører og STB-leverandører tilsynelatende sitt beste for å kåle til denne muligheten.

TVer kan ha strobing backlight (LCD) eller black frame insertion (OLED) som har til hensikt å gjengi bevegelse bedre. Det er vanligvis ikke en prioritet på PC-monitorer - enten viser de et tilnærmet statisk Office-bilde, eller så viser de en spill-scene rendret i langt mer enn 60 fps. Det finnes uten tvil mange PC-skjermer som er skikkelig dårlig til visning av video, men det er etter min mening først og fremst pga mangler/prioriteringer i hardware (bevegelser, HDR, sortnivå,...), ikke fordi de mangler kreativ signalbehandling for å fikse på innhold. Noen billig-skjermer mangler også muligheten til å vise et "sant" 8 bit per komponent signal, og bruker heller 6-bit panel sammen med FRC (temporal dithering), men det kan sikkert også være tilfelle for noen no-name tver til et par tusenlapper?

Jeg tror ganske enkelt at vi er uenige. Du er positiv til signalbehandling i skjermen for å forbedre kilder, jeg ser signalbehandling først og fremst som et middel for å kompensere for svakheter i skjerm-hardware. At vi gjentar våre ståsteder med stor konfidens vil antagelig ikke bidra til debatten.

-k

Endret av knutinh
Lenke til kommentar
knutinh skrev (13 minutter siden):

"mpeg noise reduction, sharpening, smooth gradation" er nettopp den slags prosessering som jeg er skeptisk til, og som jeg (og Hollywood) skrur av hvis vi kan.

https://www.nytimes.com/wirecutter/blog/filmmaker-mode-tv-setup/

"Most of those features sound like they do something to improve the image. But the truth is, although they can improve one aspect of the image, they usually hurt another... The biggest potential drawback is that you simply won’t like the look of Filmmaker Mode. Some people prefer a picture mode that isn’t completely accurate."

En TV har i noen tilfeller mulighet til å kjøre panelet native på 24 fps (eller et multippel). Mens monitorer ofte bare kan operere på 60 fps. Det er en vesentlig forskjell når man ser på filmer som er filmet i 24 fps. På den andre siden så gjør innholdsleverandører og STB-leverandører tilsynelatende sitt beste for å kåle til denne muligheten.

TVer kan ha strobing backlight (LCD) eller black frame insertion (OLED) som har til hensikt å gjengi bevegelse bedre. Det er vanligvis ikke en prioritet på PC-monitorer - enten viser de et tilnærmet statisk Office-bilde, eller så viser de en spill-scene rendret i langt mer enn 60 fps. Det finnes uten tvil mange PC-skjermer som er skikkelig dårlig til visning av video, men det er etter min mening først og fremst pga mangler/prioriteringer i hardware (bevegelser, HDR, sortnivå,...), ikke fordi de mangler kreativ signalbehandling for å fikse på innhold. Noen billig-skjermer mangler også muligheten til å vise et "sant" 8 bit per komponent signal, og bruker heller 6-bit panel sammen med FRC (temporal dithering), men det kan sikkert også være tilfelle for noen no-name tver til et par tusenlapper?

Jeg tror ganske enkelt at vi er uenige. Du er positiv til signalbehandling i skjermen for å forbedre kilder, jeg ser signalbehandling først og fremst som et middel for å kompensere for svakheter i skjerm-hardware. At vi gjentar våre ståsteder med stor konfidens vil antagelig ikke bidra til debatten.

-k

Vet ikke hva jeg skal si til den posten. Du sier jo ikke noe jeg ikke er klar over. Vil man ikke ha bildeprosessering what so ever, så bare kjør på med monitor i stedet 😎

Er jo en grunn til HDTVtest tester hvordan en TVer håndterer ulike videosignaler. Det er alt fra 5:5 pulldown (på nyere 120Hz TVer) til 50Hz PAL signaler til innhold med lav bitrate.

Såklart kan det diskuteres hvorvidt det er bra å ha en TV som "rydder opp" i bildet på innhold med lav bitrate, men for 99,9% så vil en TV som håndterer dette bra, oppleves som bedre. Men enn så lenge vi har lossy video codecs med ikke veldig høy bitrate, så er dette en bra ting i mine øyne. 

Selv har jeg MPEG noise reduction, sharpening avskrudd. Men smooth gradation har jeg påskrudd (fikser ofte opp i banding). Jeg liker også frame interpolation, selv om det i raske bevegelser skaper etterslep med artifacts. Til slutt bruker jeg cinema mode. Da jeg foretrekker så naturlige farger som man kan få.

Lenke til kommentar
MrMarbles skrev (12 minutter siden):

Vet ikke hva jeg skal si til den posten. Du sier jo ikke noe jeg ikke er klar over.

Du kan jo anerkjenne at det ikke er universal enighet om at postprosessering for å pynte på bildet i tv-en er en bra ting?

Sitat

 Vil man ikke ha bildeprosessering what so ever, så bare kjør på med monitor i stedet 😎 

Det er nok bildeprosessering også i en monitor. Jeg er ikke fundamentalt mot enhver prosessering, men jeg er skeptisk til "kilde-enhancement". Jeg vil ha en tv (og en disk eller streaming) som er mest mulig transparent ovenfor film-produsentens intensjon. Hvis hun vil at introen skal se ut som om den er filmet med mjpeg-modusen i et Canon ixus-kamera fra år 2000 så vile jeg at det skal se nettopp sånn ut, og ikke en Koreansk ingeniørs oppfatning av hva jeg antagelig vil like bedre.

Sitat

Såklart kan det diskuteres hvorvidt det er bra å ha en TV som "rydder opp" i bildet på innhold med lav bitrate, men for 99,9% så vil en TV som håndterer dette bra, oppleves som bedre. Men enn så lenge vi har lossy video codecs med ikke veldig høy bitrate, så er dette en bra ting i mine øyne. 

Hvis det fantes universale måter å gjøre signalet ut fra en dekoder bedre på så ville nok slikt ha blitt definert av organene som standardiserer codecer. Og det er på mange måter det de har gjort i mange ti-år. Deblokkingsfilter er f.eks med i h.264. Fordelen med å standardisere det i codecen er at enkoderen "vet" hva som kommer til å skje i dekoderen, og evt kan sende meta-informasjon som styrer prosessen. Hvis innholdet er et sjakkbrett som "uheldigvis" liner opp med blokkene så ønsker man ikke å smøre ut blokk-grensene. For en lukket enkoder-dekoder-loop så kan man gjøre slike avveininger, for en proprietær postprosessering som dingler etter dekoderen så er det generelt vanskelig.

Regnekraften (og algoritmekunnskapen) går framover, og for en 10 eller 30 år gammel codec vil det selvsagt være mulig å gjøre ting i dag som ikke var praktisk mulig når man definerte den.

-k

Endret av knutinh
Lenke til kommentar
knutinh skrev (5 minutter siden):

Du kan jo anerkjenne at det ikke er universal enighet om at postprosessering for å pynte på bildet i tv-en er en bra ting?

Det er nok bildeprosessering også i en monitor. Jeg er ikke fundamentalt mot enhver prosessering, men jeg er skeptisk til "kilde-enhancement". Jeg vil ha en tv (og en disk eller streaming) som er mest mulig transparent ovenfor film-produsentens intensjon. Hvis hun vil at introen skal se ut som om den er filmet med mjpeg-modusen i et Canon ixus-kamera fra år 2000 så vile jeg at det skal se nettopp sånn ut, og ikke en Koreansk ingeniørs oppfatning av hva jeg antagelig vil like bedre.

Såklart kan jeg det. Men som jeg var inne på tidligere, så er det mindretall for dette (merk at jeg ikke snakker om filmmaker mode her). Sony og Panasonic, som ofte blir forbundet med best mulig bildekvalitet, prosesserer bildet ganske kraftig. Til og med projektorer har bildeprosessering. 

Personlig ønsker jeg filmformatet død og ønsker meg heller innhold i HFR, men forstår såklart at veldig mange er uenige i det. 

Jeg tror faktisk ikke monitorer har noe som helst bildeprosessering for video. De analyserer ikke bildet og gjør forbedringer underveis. De viser rett og slett hva som kommer inn. 

Lenke til kommentar
MrMarbles skrev (3 timer siden):

Vel det ser styggere ut. Du får komprimerings artefakter, du får banding. Du må ha virkelig høy bitrate for at du ikke skal legge merke til dette i mørke scener. 

Det er jo en grunn til TV-produsentene bruker så mye penger på utvikling av bildeprosessering. Vises denne "støyen" lett (snakker ikke om film grain her), så får TV-produsenten slakt. 

bilde.png.a8f08b16aee8441e4ed6afac5cb9e722.png

Jeg har bra bitrate og lav ping, så jeg skjønner ikke at de skal være flaskehalsen. Jeg hadde gjerne lasta ned hele filmen, gjerne 40GB+, hvis det var dét om å gjøre hvis jeg kan slippe banding og artifacts.

  • Liker 1
Lenke til kommentar
KarvaBlad skrev (1 minutt siden):

bilde.png.a8f08b16aee8441e4ed6afac5cb9e722.png

Jeg har bra bitrate og lav ping, så jeg skjønner ikke at de skal være flaskehalsen. Jeg hadde gjerne lasta ned hele filmen, gjerne 40GB+, hvis det var dét om å gjøre hvis jeg kan slippe banding og artifacts.

Ja, dessverre så capper de fleste på 20Mbps eller lavere. Tror Apple sin TV+ tjeneste ligger oppmot 30mbps. Så kanskje det kommer seg (sjekk ut Foundation, utrolig nydelig sci-fi med herlig bildekvalitet).

Er også en grunn til at jeg foretrekker UHD kontra streaming for film :)

Lenke til kommentar
MrMarbles skrev (3 minutter siden):

Ja, dessverre så capper de fleste på 20Mbps eller lavere. Tror Apple sin TV+ tjeneste ligger oppmot 30mbps. Så kanskje det kommer seg (sjekk ut Foundation, utrolig nydelig sci-fi med herlig bildekvalitet).

Er også en grunn til at jeg foretrekker UHD kontra streaming for film :)

Jeg kjører jo denne på Netflix:

bilde.png.2e447556125246cb1aee2e5409804923.png

Altså 7 gigaBYTE i timen. Litt kjapp matte gir da 7000/60/60= 1,94 MB i sekundet = 15,5 Mbit/sek. Ikke rare greiene. Linja mi takler jo 60 ganger så mye. 

 

Lenke til kommentar
MrMarbles skrev (41 minutter siden):

Såklart kan jeg det. Men som jeg var inne på tidligere, så er det mindretall for dette 

Kilde?

Sitat

Personlig ønsker jeg filmformatet død og ønsker meg heller innhold i HFR, men forstår såklart at veldig mange er uenige i det. 

Det er et helt annet spørsmål. Jeg vil gjerne at "kanalen" fra filmmaker til meg skal ha så høy kvalitet som absolutt mulig. Da er forutsetningen best for at jeg kan se akkurat det som hun ønsket at jeg skulle se.

Hvis det hun ønsker er det visuelle inntrykket av 24fps så er det lett å få til innenfor et format som tilbyr 72fps (eller mer).

Sitat

Jeg tror faktisk ikke monitorer har noe som helst bildeprosessering for video. De analyserer ikke bildet og gjør forbedringer underveis. De viser rett og slett hva som kommer inn. 

 Overdrive:

https://blurbusters.com/faq/lcd-overdrive-artifacts/

Når en pixel skifter fra mørk til lys (eller motsatt) så vil panelet ha en viss responstid. Det reagerer ikke instantant. En måte å motvirke dette på er ved å innføre temporær oppskarpning: å overdrive transisjonen slik at man utligner den fysiske tregheten ved  be om mer akkurat i transisjonen. En slags signalmessig overshoot.

Dette kan man bare gjøre i overganger for mellomtoner, hvis man går fra "max svart" til "max hvit" (eller motsatt) så har man allerede brukt opp hele signal-svinget, og systemet tilbyr ikke muligheten til å kompensere.

Det er såvidt jeg forstår grunnen til at PC-monitorer gjerne markedsfører "gray-to-gray" responstid: da har de mulighet til å kompensere digitalt.

Fargerom:

Et PC-monitor-panel har ofte ikke en fargegjengivelse som tilsvarer ønsket standard (srgb, adobe rgb, BT2020,...). Ved å ha en oppslagstabell i skjermen så kan man mappe hver input-farge til nærmest mulig ønsket respons. Noen monitorer lar deg også endre dette ved å måle skjermens respons med en "puck", og så overstyre lookupen.

Hvis man går for langt med slik korreksjon så risikerer man å få mer presise farger, men banding. Spesielt om fargefeilen er stor og man opererer med få bit ut til panelet.

Gamma:

LCD er såvidt jeg vet inherent lineær respons. OLED og plasma styres ved PWM. For å få ønsket gamma-respons (både for at desktoppen og bilder på PCen din skal framstå som passe mørk i mellomtonene og for at 8-bit DVI/DP/HDMI skal få mindre banding) så må man ha en gamma-funksjon som ulineært mapper rgb-koder til panel-respons.

Se også denne (eldre) artikkelen om bruk av LCD-monitorer til forskning på syn:

https://www.frontiersin.org/articles/10.3389/fpsyg.2015.00303/full

-k

Endret av knutinh
Lenke til kommentar
knutinh skrev (Akkurat nå):

Kilde?

 

Vel, jeg har aldri hørt noen klage på at TVene blir bedre på bildeprosessering over åra. Det er gjerne heller motsatt. At folk vil ha bedre og bedre bilde. Jeg har aldri sett en TV-anmeldelse hvor det er blitt klaget på at bildeprosessoren er blitt "for bra". Ja, jeg har sett klager på innstillinger som sharpening og mpeg noise reduction erpåskrudd som default, men i det store og hele, så blir prosesseringa bare bedre og bedre og det er ingen som klager på det. Det er selvfølgelig en fin balansegang her. Få best mulig bilde, uten å ta bort detaljer fra bildet. 

Samme på f.eks. smarttelefoner. Det er veldig få som klager over bildene deres ser bedre og bedre ut og her er det bildeprosessering som pynter opp bilde til de grader.

Lenke til kommentar
MrMarbles skrev (15 minutter siden):

Vel, jeg har aldri hørt noen klage på at TVene blir bedre på bildeprosessering over åra. Det er gjerne heller motsatt. At folk vil ha bedre og bedre bilde. Jeg har aldri sett en TV-anmeldelse hvor det er blitt klaget på at bildeprosessoren er blitt "for bra".

Jeg tror at forskjellene vi har i perspektiv gjør at diskusjonen blir vanskelig. Jeg kritiserer ikke at bildeprosessering er "for bra". Jeg kritiserer at den er for dårlig, og hevder at bildet ofte er mer behagelig om man skrur den av. En ingeniør i Korea blir kanskje målt på hvor mye støy hun klarer å fjerne. Hun lager en algoritme som fjerner 12dB støy, får bonus, og produktet shippes. At skuespillerens porer samtidig forsvinner er aldri noe stort poeng.

For de 95% av kundene som aldri er inne i en meny på tv-en så er det ikke noe de har et bevisst forhold til. For å kunne si noe om hva befolkningen faktisk foretrekker så må man gjøre et eksperiment hvor de faktisk eksponeres for det ene og det andre. Blant entusiaster så er mitt inntrykk at et flertall skrur av eller toner ned mange av disse funksjonene. Ett unntak er bevegelses-interpolering som skaper stor uenighet også blant entusiaster. Man kan argumentere for at dette er en funksjon som skjuler mismatch mellom innhold og panel (på kino har de en løsning som få klager på på tross av den lave rammerate: hvis hver frame i 2-3 korte flash, mørkt innimellom).

Jeg ser ikke bort ifra et de tunge aktørene i bransjen har brukergrupper som setter seg ned og rater "A" og "B" på grundig metodisk vis. Men dette er grunnleggende  bedrifter skapt for å tjene penger, ikke for å tilfredsstille akademiske hensikter. Hvis kundene tar med seg en tv med grelle farger fra Elkjøp eller om en eier blir mer fornøyd av at status-objektet på veggen har "AI TrueIntelligence 2000" så vil de presumptivt tilby nettopp det.

Sitat

Samme på f.eks. smarttelefoner. Det er veldig få som klager over bildene deres ser bedre og bedre ut og her er det bildeprosessering som pynter opp bilde til de grader.

En forskjell er at bildene jeg tar med mobilen ikke er kunst. Det har ikke sittet 1000 mennesker og jobbet med en kreativ prosess for å gi meg en helt spesiell opplevelse. Stort sett tar jeg snaps av ting jeg trenger å dokumentere, familie og dyr. Så lenge ting er skarpt, rimelig eksponert og med en rimelig hvitbalanse så er jeg stort sett fornøyd.

Når jeg skal ta bilder jeg bryr meg om så bruker jeg system-kamera og raw-filer (som er minimalt prosessert) som jeg importerer i Lightroom sånn at jeg kan forme bildet akkurat som jeg vil. Med kamera, skjerm og printer som er kalibrert slik at jeg får noenlunde forutsigbart resultat.

-k

 

Endret av knutinh
Lenke til kommentar
knutinh skrev (15 minutter siden):

Jeg tror at forskjellene vi har i perspektiv gjør at diskusjonen blir vanskelig. Jeg kritiserer ikke at bildeprosessering er "for bra". Jeg kritiserer at den er for dårlig, og hevder at bildet ofte er mer behagelig om man skrur den av. En ingeniør i Korea blir kanskje målt på hvor mye støy hun klarer å fjerne. Hun lager en algoritme som fjerner 12dB støy, får bonus, og produktet shippes. At skuespillerens porer samtidig forsvinner er aldri noe stort poeng.

For de 95% av kundene som aldri er inne i en meny på tv-en så er det ikke noe de har et bevisst forhold til. For å kunne si noe om hva befolkningen faktisk foretrekker så må man gjøre et eksperiment hvor de faktisk eksponeres for det ene og det andre. Blant entusiaster så er mitt inntrykk at et flertall skrur av eller toner ned mange av disse funksjonene. Ett unntak er bevegelses-interpolering som skaper stor uenighet også blant entusiaster. Man kan argumentere for at dette er en funksjon som skjuler mismatch mellom innhold og panel (på kino har de en løsning som få klager på på tross av den lave rammerate: hvis hver frame i 2-3 korte flash, mørkt innimellom).

Jeg ser ikke bort ifra et de tunge aktørene i bransjen har brukergrupper som setter seg ned og rater "A" og "B" på grundig metodisk vis. Men dette er grunnleggende  bedrifter skapt for å tjene penger, ikke for å tilfredsstille akademiske hensikter. Hvis kundene tar med seg en tv med grelle farger fra Elkjøp eller om en eier blir mer fornøyd av at status-objektet på veggen har "AI TrueIntelligence 2000" så vil de presumptivt tilby nettopp det.

En forskjell er at bildene jeg tar med mobilen ikke er kunst. Det har ikke sittet 1000 mennesker og jobbet med en kreativ prosess for å gi meg en helt spesiell opplevelse. Stort sett tar jeg snaps av ting jeg trenger å dokumentere, familie og dyr. Så lenge ting er skarpt, rimelig eksponert og med en rimelig hvitbalanse så er jeg stort sett fornøyd.

Når jeg skal ta bilder jeg bryr meg om så bruker jeg system-kamera og raw-filer (som er minimalt prosessert) som jeg importerer i Lightroom sånn at jeg kan forme bildet akkurat som jeg vil. Med kamera, skjerm og printer som er kalibrert slik at jeg får noenlunde forutsigbart resultat.

-k

 

Ja, mulig vi snakker forbi hverandre. Følger du med på toppmodellene til dagens TVer? Du får sylskarpt bilde, uten å miste detaljer i bildet. Toppmodellene til Samsung, Sony, Panasonic, LG osv. har alle en veldig avansert bildeprosessor. Denne kan man ikke skru av og få bilde helt rått og uprosessert. Man kan skru av enkelte features, men ikke all prosessering (jeg snakker IKKE om frame interpolation her, bare så det er sagt). 

Og det er fra dette ståstedet jeg snakker. Det er en konsensus om at bilde på TVer har blitt bedre, uten at man har mistet detaljer i bildet. Og dette er det bildeprosesseringa som gjør. Uten at jeg kan snakke på vegne av alle TV-eiere i mid-end/high-end segmentet, så tror jeg det er en enighet om at bilde på TVer er blitt bedre. Igjen, dette er pga. bildeprosessoren. 

Vil man ha absolutt ingen bildeprosessering så kan man kjøpe en stor monitor også. Men jeg tror det er veldig få som velger å gå den veien av entusiastene som bryr seg om bildekvalitet.

 

Lenke til kommentar
MrMarbles skrev (43 minutter siden):

Ja, mulig vi snakker forbi hverandre. Følger du med på toppmodellene til dagens TVer? Du får sylskarpt bilde, uten å miste detaljer i bildet. Toppmodellene til Samsung, Sony, Panasonic, LG osv. har alle en veldig avansert bildeprosessor. Denne kan man ikke skru av og få bilde helt rått og uprosessert. Man kan skru av enkelte features, men ikke all prosessering (jeg snakker IKKE om frame interpolation her, bare så det er sagt). 

Jeg har en LG C9 (altså 2019 modell). Jeg vil si at jeg holder meg noenlunde oppdatert både på tv-markedet og teknologien bak.

Man kan vanligvis ikke skru av noen prosessor i noen skjermer, hverken tv-skjermer eller pc-skjermer. Videostrømmen som kommer inn HDMI/DVI/DP må nødvendigvis igjennom noen sted før den kan flyttes til skjermpanel, som kommentert lengre opp.

Jeg har kritisert "enhancements" som prøver å reversere tapet i lossy kompresjon, støyfjerning og banding-reduksjon. Jeg har skrudd av det meste av slikt.

Sitat

Og det er fra dette ståstedet jeg snakker. Det er en konsensus om at bilde på TVer har blitt bedre, uten at man har mistet detaljer i bildet. Og dette er det bildeprosesseringa som gjør. Uten at jeg kan snakke på vegne av alle TV-eiere i mid-end/high-end segmentet, så tror jeg det er en enighet om at bilde på TVer er blitt bedre. Igjen, dette er pga. bildeprosessoren. 

TV-bildet har primært blitt bedre fordi dagens fysiske paneler er bedre enn de man hadde tidligere, og fordi vi i dag har standarder som lar deg overføre bedre signaler enn tidligere. Hvis det eksisterer en konsensus om at forbedringen f.eks. de siste 10 årene primært eller utelukkende skyldes bildebehandlingsalgoritmer i tv-en så har den gått meg hus forbi. Hvis du ser på R&D-innsatsen og forsyningskjedene så er det vel mye som taler for at det er panelene som er den "vanskelige" biten. Du kan kjøpe en ARM SoC egnet for  bildebehandlings fra et antall Kinesiske leverandører. Hvis du vil ha et godt panel så må du per i dag kjøpe fra LG (forhåpentligvis endrer dette seg snart når Samsung skjerper seg eller Kineserne catcher opp).

Ved å bruke logikken din så kunne man hevde at "biler i 2022 er bedre enn biler var i 1970. I samme periode så har man gått over fra FM-radio til DAB radio. Derfor er det DAB-radio som gjør dagens biler bedre". Korrelasjon beviser ikke kausalitet.

Sitat

Vil man ha absolutt ingen bildeprosessering så kan man kjøpe en stor monitor også. Men jeg tror det er veldig få som velger å gå den veien av entusiastene som bryr seg om bildekvalitet.

Det finnes veldig få PC-monitorer i størrelser som egner seg til tv-bruk. Det finnes store skjermer beregnet for reklame og lignende men de koster som regel skjorta. Som nevnt tidligere så mangler slike ofte paneler og design som egner seg for avspilling av 24fps materiale uten framerate-konvertering, noe som er svært negativt for filmavspilling. Bildebehandling kan lempe litt på den ulempen, men det er klart å foretrekke å ha et panel som kan vise (et multippel av) 24fps, heller enn å bruke motion interpolasjon.

-k

Endret av knutinh
Lenke til kommentar
knutinh skrev (47 minutter siden):

Jeg har kritisert "enhancements" som prøver å reversere tapet i lossy kompresjon, støyfjerning og banding-reduksjon. Jeg har skrudd av det meste av slikt.

Nemlig. Da misforstod jeg deg, eller leste hva du skrev feil. For jeg leste det som at du var imot bildeprosessering og hele poenget mitt er at bildeprosessering er en bra ting (ikke de tingene som filmmaker mode skrur av nødvendigvis), det har gjort bilde mye mye bedre, og en monitor ser veldig mye dårligere ut pga. at den nettopp mangler bildeprosessering. That's it.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...