Gå til innhold

TEST: Blindtest: 4K


Anbefalte innlegg

Bakgrunn historie:

I 2003 laget jeg en excel kalkulator som skulle brukes til å finne optimal sitte avstand basert på DPI (skjerm størrelse vs skjerm oppløsning)

Når jeg setter inn test eksemplarene (55" @ 1080 og 55" @ 2160), sier kalkulatoren at:

 

Optimal avstand er :-

2,18 meter for 55" @ 1080

1,09 meter for 55" @ 2160

 

Klarer ikke å huske matten bak dokumentet (var tydligvis smartere før enn nå - pow! right in the feels), men tror det var hvilken avstand en måtte ha til skjermen for å få optimal utnyttelse av oppløsning ved normalt syn..

 

Ukens nøtt : Er det noen som klarer å "reverse engineer" denne, og forklare hva jeg tenkte på før?

 

Om jeg gjør det på denne måten:

1080/55 = 19.63dpi

2160/55 = 39.27dpi

 

19.63*2.18=42.79

39.27*1.09=42.80

 

Du har nok tenkt noe som at på 55" så trenger man ca. 42.8 dpi ved 1m avstand. Ved 2m halvparten (ca 21.4 dpi), 3m en tredjedel (14.3dpi) og så videre. Med bare de 2 verdiene er det så nært jeg kommer. Om du har noe ikke lineær formel, så er vi avhengig av flere eksempler for å komme frem til noe. Ta også gjerne med forskjellige skjermstørrelser for å bekrefte denne hypotesen?

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

 

Bakgrunn historie:

I 2003 laget jeg en excel kalkulator som skulle brukes til å finne optimal sitte avstand basert på DPI (skjerm størrelse vs skjerm oppløsning)

Når jeg setter inn test eksemplarene (55" @ 1080 og 55" @ 2160), sier kalkulatoren at:

 

Optimal avstand er :-

2,18 meter for 55" @ 1080

1,09 meter for 55" @ 2160

 

Klarer ikke å huske matten bak dokumentet (var tydligvis smartere før enn nå - pow! right in the feels), men tror det var hvilken avstand en måtte ha til skjermen for å få optimal utnyttelse av oppløsning ved normalt syn..

 

Ukens nøtt : Er det noen som klarer å "reverse engineer" denne, og forklare hva jeg tenkte på før?

Om jeg gjør det på denne måten:

1080/55 = 19.63dpi

2160/55 = 39.27dpi

 

19.63*2.18=42.79

39.27*1.09=42.80

 

Du har nok tenkt noe som at på 55" så trenger man ca. 42.8 dpi ved 1m avstand. Ved 2m halvparten (ca 21.4 dpi), 3m en tredjedel (14.3dpi) og så videre. Med bare de 2 verdiene er det så nært jeg kommer. Om du har noe ikke lineær formel, så er vi avhengig av flere eksempler for å komme frem til noe. Ta også gjerne med forskjellige skjermstørrelser for å bekrefte denne hypotesen?

 

1080/50 = 1.98

1080/55 = 2.18

1080/60 = 2.38

1080/65 = 2.58

1080/90 = 3.57

1080/100 = 3.96

800*600 @ 4:3 @ 100" = 8.72 (gamle prosjektoren min :-p)

 

Tror du dette kan ha noe å si hvorfor test personene ikke klarte å se 4k detaljene i testen, men heller valgte 1080p versjonen av andre faktorer? Kanskje bildebehandling er bedre ved lavere oppløsning?

 

 

Til Tek:

kommer dere til å teste med matriale som er rendret i 3d? (PC spill feks?) Trenger ikke være live, opptak av noen som spiller en sekvens i 4k og 1080p, vist på sine respektive skjermer?

Endret av keramikklampe
Lenke til kommentar

Bakgrunn historie:

I 2003 laget jeg en excel kalkulator som skulle brukes til å finne optimal sitte avstand basert på DPI (skjerm størrelse vs skjerm oppløsning)

Når jeg setter inn test eksemplarene (55" @ 1080 og 55" @ 2160), sier kalkulatoren at:

 

Optimal avstand er :-

2,18 meter for 55" @ 1080

1,09 meter for 55" @ 2160

 

Klarer ikke å huske matten bak dokumentet (var tydligvis smartere før enn nå - pow! right in the feels), men tror det var hvilken avstand en måtte ha til skjermen for å få optimal utnyttelse av oppløsning ved normalt syn..

 

Ukens nøtt : Er det noen som klarer å "reverse engineer" denne, og forklare hva jeg tenkte på før?

 

Jeg vi tippe du har regnet noe heksekunst utifra antall tapper i øyet og del av synsfeltet?

Lenke til kommentar

Kul test, men som andre hart vært inne på:

 

Konsklusjonen "Det viser seg at det var nesten umulig å se forskjell på lang avstand på de 55 tommer store skjermene. Selv på nært hold var det vanskelig å skille mellom 4K og Full HD."

 

Tvert imot viser testen at folk ganske lett klarer å se forskjell, det er langt ifra tilfeldig fordelt hva folk velger. (selv med mye bevegelse, som visker ut endel av forskjellene når det er lav framerate).

 

AtW

  • Liker 5
Lenke til kommentar

Vet ikke med andre, men jeg så enkelt forskjell på bildet til overskriften, før jeg i det hele tatt begynte å lese.. UHD er klart skarpere og har bedre bilde. Og det er vel UHD dere har testet, ikke 4K. UHD er ikke bare UHD heller, mye å si på bildeprosessoren. Så å sammenligne to TVer til samme pris med UHD og Full-HD, så vil antagelig Full-HD vinne pga. en bedre bildeprosessor.

 

Men ser egentlig ikke noe poeng i å kjøpe 4K enda, med mindre du må kjøpe ny tv i morgen. Ville heller ventet til at toppmodellene innen SUHD og OLED blir billigere og at UHD blu-rays begynner å komme ut i starten av 2016. Netflix sitt UHD innhold er elendig.

Lenke til kommentar

Jeg ser flere problemer med denne testen som burde vært veldig enkle å korrigere for å gjøre testen mer rettferdig:

1) Å kalibrere lys etter "sånn ca" øyemål holder ikke.

2) Å la være å kalibrere farger/kontrast er heller ikke rettferdig. Og forresten ser jeg ikke at noe kalibreringsutstyr nevnes i deres test, da antar jeg at hele greien ble tatt som jeg skrev tidligere etter øyemål og tall fra skjermens meny.

3) Deres testresultater er "rå data", det vil si at etter kalibrering ville dere få %-vis angitt fargespektrum, og dette kunne godt være med i beregningen av den totale fordelingen av testresultatene. For eksempel - hvis den ene skjermen støttet 100% av angitt fargespektrum og den andre bare 90% burde det vært tatt med, med tanke på at folk ville sett denne forskjellen og tatt det med i betrakningen sin og dermed gi skjerm(ene) en urettferdig stemme for/mot, selv om det ikke var oppløsningen de var ute etter.

 

Ellers: 55 tommer er beskjedne greier. Om man først skal få noe igjen av alt som er 720p og oppover bør man ha flere tommer, i alle fall +10 gjerne +20. Ellers så bekrefter testen det åpenbare - vinkeloppløsning er alltid noe man bør ta med i regnestykket.

 

Og en siste sak: fleste skjermer har diverse NFC/wifi/sharing funksjonalitet. Det er mildt sagt en del forskjell mellom å klare å tyde detaljer i en video og i stillbilder, som man kan vise frem fra f.eks. mobil eller en annen kilde. Da ser man mye fortere om skjermen er god nok eller ei, og igjen da er skikkelig kalibrering med i bildet - igjen.

  • Liker 4
Lenke til kommentar

 

Jeg vi tippe du har regnet noe heksekunst utifra antall tapper i øyet og del av synsfeltet?

 

Akkurat som artikkelen tek hele tiden linker til, også i denne saken. Der påstås det at du kan ha opptil 80" TV og ikke se de individuelle pikslene. Beviser er altså er tall for hvor mye øyet kan skille per grad, som er 1,75 cm. Så de finner ut hvor bred en kolonne med svart og hvitt kan være for at du kan se forskjellen eller ikke.

 

Beskrivelsen i seg selv viser jo at dette ikke fungerer. Skille svarte og hvite kolonner. Unnskyld meg, men når ble TVen kolonner? Og hvem ser på svarte og hvite kolonner? Det fungerer rett og slett ikke å bare regne seg ut til noe slikt.

 

Kan også legge til at intervjuobjekt er fra Telenor Sattelite Broadcasting. Så han jobber jo faktisk ikke med dette i det hele tatt. I tillegg er han jo utrolig partisk. Hvis alle skal streame høy bit-rate fra Telenor, og spesielt fra Satellitter, da har de et problem! Ikke rart at noen som ikke ønsker at det plutselig skal bli stor belastning på nettet påstår at noe som krever mer fra nettet ikke er vits i.

 

Linken er ellers for tek ekstra. Så for de som kan, kan dere få lov å lese denne svært vitenskapelige og upartiske artikkelen her: http://www.tek.no/artikler/intervju-torkel-thoresen-i-telenor-satellite-broadcasting/154302?key=D1eRoKYt

  • Liker 2
Lenke til kommentar

Jeg ser flere problemer med denne testen som burde vært veldig enkle å korrigere for å gjøre testen mer rettferdig:

1) Å kalibrere lys etter "sånn ca" øyemål holder ikke.

2) Å la være å kalibrere farger/kontrast er heller ikke rettferdig. Og forresten ser jeg ikke at noe kalibreringsutstyr nevnes i deres test, da antar jeg at hele greien ble tatt som jeg skrev tidligere etter øyemål og tall fra skjermens meny.

3) Deres testresultater er "rå data", det vil si at etter kalibrering ville dere få %-vis angitt fargespektrum, og dette kunne godt være med i beregningen av den totale fordelingen av testresultatene. For eksempel - hvis den ene skjermen støttet 100% av angitt fargespektrum og den andre bare 90% burde det vært tatt med, med tanke på at folk ville sett denne forskjellen og tatt det med i betrakningen sin og dermed gi skjerm(ene) en urettferdig stemme for/mot, selv om det ikke var oppløsningen de var ute etter.

 

Ellers: 55 tommer er beskjedne greier. Om man først skal få noe igjen av alt som er 720p og oppover bør man ha flere tommer, i alle fall +10 gjerne +20. Ellers så bekrefter testen det åpenbare - vinkeloppløsning er alltid noe man bør ta med i regnestykket.

 

Og en siste sak: fleste skjermer har diverse NFC/wifi/sharing funksjonalitet. Det er mildt sagt en del forskjell mellom å klare å tyde detaljer i en video og i stillbilder, som man kan vise frem fra f.eks. mobil eller en annen kilde. Da ser man mye fortere om skjermen er god nok eller ei, og igjen da er skikkelig kalibrering med i bildet - igjen.

 

Mer rettferdig er jo så sin sak, men det er jo et poeng fra et konsumentperspektiv, om man kun kunne sett forskjellene om alt var 100% idealisert, så sier jo det noe også.

 

AtW

Lenke til kommentar

Bluray på min 65" Panasonic Plasma ser såpass bra ut, att jeg neppe kommer til å oppgradere til 4K med det første. Da vil jeg også måtte kjøpe ny Receiver med 4K, samt nytt HK/CPU i HTPC'n som støtter 4K. Selv sitter jeg 2.5m unna, og synes ikke en 65" er noe voldsomt stort når man først bli vandt med det.

 

Men med tida, om jeg ikke skal ha lerret, så hadde ikke en 80" 4K HDR skjerm vært å forrakte. :)

Endret av Simkin
Lenke til kommentar

Steik for noko fjas. Di med normalt syn ser lett forskjell viss testen er gjort riktig. Dernest synast det rart å sette opp 3 TV'er som er nær kvarandre i pris. Det burde med all sannsynlighet bety at 1k TV'n har eit betre panel enn 4k TV'ane. Di einaste som tjener på ein såpass dårlig utført test er Telenor og tulleutsagnet di lirer ut av seg.

  • Liker 5
Lenke til kommentar

Steik for noko fjas. Di med normalt syn ser lett forskjell viss testen er gjort riktig. Dernest synast det rart å sette opp 3 TV'er som er nær kvarandre i pris. Det burde med all sannsynlighet bety at 1k TV'n har eit betre panel enn 4k TV'ane.

 

Er det ikke nettopp det som er poenget da? At om man skal legge, si, +-15 lapper i en TV, er det da best å kjøpe en UHD eller FHD TV? Og utifra denne testen så er det tilsynelatende bedre å kjøpe FHD TVn.

Og det sier vel nesten seg selv, at produkter som er noen lunde likt priset, så er det beste "bang for buck" produktet det som har på papiret dårligst oppløsning, siden dette vil relativt høyere kvalitet på komponentene som 'teller'. Panel og prosessering for å nevne noe.

 

Linus tech tips hadde for øvrig en ganske intresang sak om dette for ei stund siden.

  • Liker 2
Lenke til kommentar

Men ser egentlig ikke noe poeng i å kjøpe 4K enda, med mindre du må kjøpe ny tv i morgen. Ville heller ventet til at toppmodellene innen SUHD og OLED blir billigere og at UHD blu-rays begynner å komme ut i starten av 2016. Netflix sitt UHD innhold er elendig.

Jeg er ganske sikker på at SUHD, eller skjermer med Quantum dot som det egentlig er, faktisk er billigere å lage. De bare selger dem dyrt, fordi de kan.

Endret av TKongen
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...