Gå til innhold

Stevie Ryggen

Medlemmer
  • Innlegg

    11
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Stevie Ryggen

  1. Ok, greit nok, men innlegget jeg siterer bre skrevet før ditt innlegg, og du siterer det innlegget i ditt eget innlegg. Det er ikke så rart det er det folk tror du svarer på. (dessuten er det litt underlig å snakke om at oppsett han foreslå 7 desember ikke fungerer når han 10 desember foreslår et oppsett som fungerer)

     

    AtW 

     

    Beklager, min feil.. Jeg ser nå at jeg i innlegget du viser til (#160) så har jeg oversett det siste han skrev og da ble det dessverre litt "god dag mann-økseskaft"-svar. Så du har helt rett. Apropos det oppsettet han foreslår 10. desember, så vil nok dette være bedre, og gi undersøkelsen høyere intern validitet ettersom man opererer med likere betingelser. Men som nevnt oppstår det annet problem i forhold til hvordan man velger å enkodere videomaterialet på forhold. Det kan dessuten argumenteres for at dette vil være en kunstig måte å vise/sammenligne videomateriale/displaykvalitet på ettersom det kan avvike mye fra hvordan man normalt benytter slike TV-aparater i virkeligheten, og således gi redusert økologisk validitet. Dette er også en ting man må ta i betraktning ettersom det viktigste målet med en slik undersøkelse vel må sies å være høy generaliserbarhet. Ellers har jo testen liten/ingen praktisk relevans for forbrukere. Jeg tenker da på at det nok i virkeligheten er vanligere å la skjermen stå for oppskaleringen, enn at man spiller av 1080p-innhold som på forhånd (noe kunstig) er oppskalert til 4K oppløsning. Men av disse to alternativene mener også jeg at forhånds-oppskalering likevel er å foretrekke. Selv om det ideelle hadde vært om man kunne skaffe skjermpaneler fra samme produsent som var helt like, og kalibrert helt likt, bortsett fra at ett hadde et 4K-panel og ett hadde et 1080p-panel.

  2.  

    Det du svarte på var jo dette:

     

    "Du nedsampler kildematrialet før du sender det til skjermen. I.e. ta orginal 4k kildematriale, nedsample til 1080p, så produserer du 1080p emulerende 4k matriale ved å duplisere pixlene i både høyde og bredde. Du har nå 2 sett med 4k kilder en som har en reell 4k oppløsning og en som gjør at skjermen viser samme oppløsning som en 1080p skjerm.

    "

     

    AtW

    Det var ikke det jeg svarte på nei. Hvis du går tilbake og ser så ble det innlegget du siterer skrevet ETTER mitt innlegg, så det var altså ikke det jeg svarte på. Det jeg svarte på var innlegget til sverreb, den 07 Des 2015 - 14:25:

     

     

    "Jeg synes ikke konklusjonen støttes av forsøket. Dere konkluderer med at det er vanskelig å se forskjell, men forsøket viser en sterk bias mot en av skjermene (1080p) Hvis det ikke var mulig å se forskjell burde fordelingen blitt bortimot tilfeldig. Jeg har ikke regnet på det men 14/20 lukter statistisk signifikant noe som innebærer at det var mulig å se forskjell.

     

    At det var en bias for å foretrekke den lavere oppløsningen er ikke relevant for å vurdere om det er mulig å se forskjellen. Dette er mer et psykologispørsmål.

     

    Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p"

     

    Sitatet ovenfor representerer hele innlegget til sverreb, og det var det jeg svarte på.

  3. Det du svarte på var jo dette:

     

    "Du nedsampler kildematrialet før du sender det til skjermen. I.e. ta orginal 4k kildematriale, nedsample til 1080p, så produserer du 1080p emulerende 4k matriale ved å duplisere pixlene i både høyde og bredde. Du har nå 2 sett med 4k kilder en som har en reell 4k oppløsning og en som gjør at skjermen viser samme oppløsning som en 1080p skjerm.

    "

     

    AtW

    Hvem skrev dette? Var det det jeg svarte på så beklager jeg. Da må jeg ha lest feil eller ikke lest hele innlegget.

  4.  

     

     

    Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres.

    Det må da være mulig å oppskalere bildet FØR det sendes til skjermen. Da kan man rett og slett duplikere pikslene i oppskaleringen, slik at fire og fire piksler er identiske. Man ender da opp med et bilde som i praksis ser ut som 1080P, men som inneholder flere piksler.

     

     

    Det var jo det sverreB foreslo, men stevie misforsto hva han skrev.

     

    AtW

     

    Det var ikke det han foreslo, i hvert fall var det ikke det han skrev, så jeg misforstod ikke. Jeg siterer: "Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p". Som jeg har skrevet flere ganger nå: hvis skjermene er identiske så er det 4K-panaler alle sammen, så bildet må oppskaleres på en eller annen måte. Enten FØR det sendes til displayet (hvilken kan by på problemer i forhold til enkodering/dekodering av videomaterialet (bør man bruke H.264 f.eks?), eller av selve displayet etterpå. Når han skriver "4k skjermen eller 1080p skjermen" så var det nettopp det jeg pekte på at blir feil, ettersom alle skjermene er 4K/UHD - ingen av skjermene er 1080p. Men innholdet eller kildematerialet kan være 4K eller 1080p (oppskalert)

     

  5.  

     

    Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres.

    Det må da være mulig å oppskalere bildet FØR det sendes til skjermen. Da kan man rett og slett duplikere pikslene i oppskaleringen, slik at fire og fire piksler er identiske. Man ender da opp med et bilde som i praksis ser ut som 1080P, men som inneholder flere piksler.

     

     

    Det var jo det sverreB foreslo, men stevie misforsto hva han skrev.

     

    AtW

     

    Det var ikke det han foreslo, i hvert fall var det ikke det han skrev, så jeg misforstod ikke. Jeg siterer: "Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p". Som jeg har skrevet flere ganger nå: hvis skjermene er identiske så er det 4K-panaler alle sammen, så bildet må oppskaleres på en eller annen måte. Enten FØR det sendes til displayet (hvilken kan by på problemer i forhold til enkodering/dekodering av videomaterialet (bør man bruke H.264 f.eks?), eller av selve displayet etterpå. Når han skriver "4k skjermen eller 1080p skjermen" så var det nettopp det jeg pekte på at blir feil, ettersom alle skjermene er 4K/UHD - ingen av skjermene er 1080p.

  6.  

    Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres.

    Det må da være mulig å oppskalere bildet FØR det sendes til skjermen. Da kan man rett og slett duplikere pikslene i oppskaleringen, slik at fire og fire piksler er identiske. Man ender da opp med et bilde som i praksis ser ut som 1080P, men som inneholder flere piksler.

     

    Det er fullt mulig ja. Det vil fortsatt være større pikseltetthet, men ikke mer bildeinformasjon. Jeg vet ikke om dette vil gjøre at bildet oppleves skarpere eller ikke, men det er vel det nærmeste man kommer dersom man ikke kan sammenligne skjermpaneler med full HD og UHD som ellers er identiske bortsett fra oppløsningen.

  7.  

     

    Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p

    Greit forslag for så vidt, men jeg tror ikke det er teknisk mulig å gjennomføre. Man kan ikke "nedsample" en 4K-TV. Dvs. en 4K TV har en såkalt "native resolution" i 4K, det vil si antall piksler eller bildepunkter som bildepanelet består av er ikke en variabel som kan manipuleres. Uansett hvilken oppløsning man velger å vise på skjermen (som kun kan styres ut fra kildeenheten) vil skjermen uansett oppskalere bildet til 4K.

     

    Du nedsampler kildematrialet før du sender det til skjermen. I.e. ta orginal 4k kildematriale, nedsample til 1080p, så produserer du 1080p emulerende 4k matriale ved å duplisere pixlene i både høyde og bredde. Du har nå 2 sett med 4k kilder en som har en reell 4k oppløsning og en som gjør at skjermen viser samme oppløsning som en 1080p skjerm.

     

    Som nevnt så vil ikke det fungere, ettersom 4k-skjermen automatisk oppskalerer 1080p-materialet for å kunne vise det på bildepanelet. Altså kildematerialet vil riktignok være i 1080p, men testen vil da være å avgjøre forskjellen mellom ekte 4k videomateriale vist på en 4k skjerm, og 1080p materiale vist på en 4k-skjerm (oppskalert). Det er ikke mulig å "skru av"/deaktivere oppskalering i en tv-skjerm. En UHDTV består av et bildepanel på 3840 x 2160 bildepunkter/piksler. Dette er en fysisk egenskap / hardware. For å kunne vise et bilde på 1080p MÅ bildet oppskaleres. Det blir derfor ikke det samme som å vise et 1080p-bilde på en 1080p skjerm. Et 1080p-bilde på en 1080p skjerm består av 1920 x 1080 bildepunkter, mens et 1080p-bilde på en 4K/UHDTV-skjerm består av 3840 x 2160 bildepunkter. Det blir for omfattende å forklare i detalj hvordan oppskalering foregår, men ta en titt på denne artikkelen om oppskalering av 1080p-innhold på 4K-TVer: (http://www.rtings.com/tv/learn/4k-ultra-hd-uhd-vs-1080p-full-hd-tvs-and-upscaling-compared). Hvis en 4K-TV skulle forsøkt å vise et 1080p bilde uten å oppskalere det hadde det blitt store sorte kanter rundt bildet, ettersom det bare ville fylt en mindre sektor av skjermen.

  8.  

    Greit forslag for så vidt, men jeg tror ikke det er teknisk mulig å gjennomføre. Man kan ikke "nedsample" en 4K-TV. Dvs. en 4K TV har en såkalt "native resolution" i 4K, det vil si antall piksler eller bildepunkter som bildepanelet består av er ikke en variabel som kan manipuleres. Uansett hvilken oppløsning man velger å vise på skjermen (som kun kan styres ut fra kildeenheten) vil skjermen uansett oppskalere bildet til 4K. 

     

     

    4K-oppløsningen 3840x2160 er 2x1920x2x1080, så man trenger i alle fall ikke gjøre ekstra interpolering eller prosessering. Man trenger bare vise hver hele pixel fra FullHD på 2x2 hele pixler. Det vil naturligvis bli helt annerledes enn dersom man hadde en hel pixel på samme fysiske område, så jeg tviler på resultatet hadde vært spesielt interessant på noen måte. 

     

    Ja, det blir vel som retina-skjermen på macbook pro, hvor oppløsningen er halvert i forholdt til "native", såkalt "pixel doubling", for at ikke alt skal bli alt for smått på skjermen. Men det blir jo oppskalert uansett, siden selve displayet har høyere "native" oppløsning.

  9. Bakgrunn historie:

    I 2003 laget jeg en excel kalkulator som skulle brukes til å finne optimal sitte avstand basert på DPI (skjerm størrelse vs skjerm oppløsning)

    Når jeg setter inn test eksemplarene (55" @ 1080 og 55" @ 2160), sier kalkulatoren at:

     

    Optimal avstand er :-

    2,18 meter for 55" @ 1080

    1,09 meter for 55" @ 2160

     

    Klarer ikke å huske matten bak dokumentet (var tydligvis smartere før enn nå - pow! right in the feels), men tror det var hvilken avstand en måtte ha til skjermen for å få optimal utnyttelse av oppløsning ved normalt syn..

     

    Ukens nøtt : Er det noen som klarer å "reverse engineer" denne, og forklare hva jeg tenkte på før?

    Hvis du har laget dette i excel så burde det være en enkel sak å sjekke hvilke formel du har brukt for å regne det ut?

  10. Jeg synes ikke konklusjonen støttes av forsøket. Dere konkluderer med at det er vanskelig å se forskjell, men forsøket viser en sterk bias mot en av skjermene (1080p) Hvis det ikke var mulig å se forskjell burde fordelingen blitt bortimot tilfeldig. Jeg har ikke regnet på det men 14/20 lukter statistisk signifikant noe som innebærer at det var mulig å se forskjell.

     

    At det var en bias for å foretrekke den lavere oppløsningen er ikke relevant for å vurdere om det er mulig å se forskjellen. Dette er mer et psykologispørsmål.

     

    Jeg vil foreslå et annet eksperimentellt oppsett: Få tre identiske skjermer sett en til 4k, en til nedsamplet 1080p kjør så den siste i enten 4k eller 1080p og be forsøkspersonen si om bildet ligner mest på 4k skjermen eller 1080p skjermen, gjenta 20-40 ganger med tilfeldig valg av om den tredje skjermen viser 4k eller 1080p

    Greit forslag for så vidt, men jeg tror ikke det er teknisk mulig å gjennomføre. Man kan ikke "nedsample" en 4K-TV. Dvs. en 4K TV har en såkalt "native resolution" i 4K, det vil si antall piksler eller bildepunkter som bildepanelet består av er ikke en variabel som kan manipuleres. Uansett hvilken oppløsning man velger å vise på skjermen (som kun kan styres ut fra kildeenheten) vil skjermen uansett oppskalere bildet til 4K. 

  11. Bra at noen tar seg bryet med å prøve å teste dette litt mer vitenskapelig enn ren synsing. Jeg må imidlertid påpeke noen svakheter med designet av denne undersøkelsen. For det første er utvalgsstørrelsen noe lav (20 personer er litt lite til å kunne trekke sikre konklusjoner fra). Det andre er at utvalget ikke nødvendigvis er representativt (de representerer et bekvemmelighetsutvalg: folk i nærheten som ønsker å delta). Testresultatene kunne vært annerledes dersom man hadde forsøkt å få inn et større utvalg, som var mer representative for hele den tv-tittende befolkningen (de man ønsker å generalisere resultatene til). I et slikt utvalg hadde det vært naturlig å inkludere eldre (kanskje med redusert syn) og yngre testpersoner. En annen faktor som er en meget vanlig feilkilde, og som også hadde vært enkelt å gjøre noe med, er dette med å forsøke å kontrollere for alle mulige forventningseffekter. En vanlig forventningseffekt som man alltid bør ta høyde for i vitenskapelige eksperimenter, er den såkalte "experimenter expectancy effekt", eller "observer-expectancy" effekten. Det er blant annet denne man forsøker å annulere i såkalte dobbeltblindede RCT-studier som brukes mye innenfor medisin. Dersom en studie er dobbeltblindet innebærer at hverken testpersonen eller eksperimentator / testleder er kjent med betingelsene for studien (i dette tilfellet, hvilken tv-som bruker hvilken teknologi). Dersom eksperimentator kjenner til testbetingelsene kan han/hun la sin egen oppfatning av studieobjektet (hvilken teknologi som er best/ på hvilken av stand) påvirke avgjørelsen til testpersonen(e). Denne effekten kan være svært subtil og virke både bevisst og ubevisst, (altså at eksperimentator selv ikke klar over hvilke signaler han/hun sender ut). Det beste er derfor at de som skal ha kontakt med testpersonene ikke har kjennskap til testens betingelser, eller hypoteser. Ved å bruke egne personer til denne interaksjonen unngår man en SVÆRT viktig feilkilde. I denne studien kan man f.eks tenke seg at testlederen(e) i forkant hadde en oppfatning av hva utfallet av studien ville bli (noe man omtrent alltid har når man holder på med forskning) av at full hd oppfattes like skarpt som 4k på vanlige titteavstander. Uten kontroll over denne effekten blir det dessverre svært vanskelig å tolke resultatene på noen meningsfull måte.

    Nå har dere riktignok ikke oppgitt spesifikt at undersøkelsen er IKKE er dobbelblindet, men jeg regner med at dere hadde opplyst om at den var dobbeltblindet hvis den hadde vært det. I det hele tatt hadde det vært ønskelig med litt mer informasjon om metoden deres. Men takk for et godt forsøk, som kanskje kan anses som en slags pilotstudie! Hadde vært svært interessant om dere hadde gjennomført undersøkelsen på nytt med litt høyere kvalitetskrav!

     

    OBS: kom også på at det i en slik setting hadde vært naturlig å gjennomføre en synstest på deltakerne, både med og uten synskorrigerende hjelpemidler (briller/linser). Selv om mange bruker briller/linser så kan det fort gå lang tid mellom synsundersøkelsene, så det er ikke sikkert at synet er optimalt korrigert. Det hadde dessuten vært naturlig å spørre deltakerne om det var under slike betingelser testpersonene vanligvis så på tv, altså hadde de på seg linser eller briller som de vanligvis benyttet ved tv-titting. Hvis noen hadde glemt hjelpemidler, eller brukte andre hjelpemidler enn vanlig kan det være en feilkilde. Videre: hvor representativt var dette utvalget i forhold til synsevne generelt (hvor stor prosentandel brukte briller/linser i dette utvalget vs prosentandel som bruker slike i befolkningen for øvrig).

     

    Videre kunne dere eliminert den feilkilden dere selv benevner med at folk investerer i og forplikter seg til en beslutning (i dette tilfelle valg av hvilken tv som ga skarpest bilde) dersom dere hadde brukt ulike testpersoner i de ulike betingelsene (titteavstander). Med et større utvalg kunne dere ha randomisert ulike testpersoner til å sitte på de ulike avstandende, og da hadde man unngått en slik "øvelseseffekt".

     

    For ikke å nevne at dere burde ha kalibrert alle tv-ene skikkelig med ordentlig måleutstyr, for å ha likest mulig utgangspunkt (slik flere har tatt til orde for). Ellers blir dette også en betydelig feilkilde. Og til slutt var det nok heller ingen god løsning å benytte H.264 formatet siden dette ikke er designet for 4K-innhold. Da kommer ikke 4K-innholdet til sin rett. Jeg kjøper forresten poenget deres med Netflix, og variabel bitrate ved streaming, men dette kan man på flere måter ta høyde for ved først å "tvinge" netflix til å spille av i høyeste kvalitet inne på kontoinnstillinger, og deretter ha oppe "info" ved avspilling slik at man kan se bitraten til enhver tid (mulig på flere avspillingsenheter men ikke alle).

    • Liker 2
×
×
  • Opprett ny...