Gå til innhold

TEST: Blindtest: 4K


Anbefalte innlegg

Videoannonse
Annonse

Du antar at alle bruker likt pixel-layout. Har du bevis for at alle TVer bruker pixel layout med rader og kolonner?

Selvsagt kan jeg ikke bevise at _alle_ tver har noe som helst. Hvordan mente du at jeg skulle kunne bevise det?

 

De fleste digitale display bruker en variant av rgb-stripe (kolonner med pixler hvor hver pixel består av 3 subpixler distribuert horisontalt i r-g-b eller b-g-r). Dette er såpass vanlig at Microsoft utnyttet det i sin ClearType teknologi.

 

Det finnes flere andre måter å legge ut subpixler på som alle har mer eller mindre subtile forskjeller. Wikipedia dekker det greit:

 

https://en.wikipedia.org/wiki/Subpixel_rendering

Det at matte kan brukes til noe, betyr ikke at det kan brukes for noe annet.

Hva mener du at man skal svare på noe sånt?

 

-k

  • Liker 1
Lenke til kommentar

 

At en topp kan være mellom samples gjør ikke at toppen forskyver seg i tid, bølgeformen er kjent, og at toppen kommer imellom samples ivaretas av nyqvist, hvordan konkret mener du dette endrer på noe tidsaspekt, evt hvor konkret i diskusjonen du lenket til på HA mener du dette tas opp? At lyd samping er temporært gjørt ikke automatisk at filtre er relevant for tidsforsinkelse i mellom kanaler i lyd.

Nå gir du ikke mening. Jeg har argumentert for at et samplet system kan gjengi forskyvninger av båndbreddebegrensede fenomener som langt overstiger samplings-perioden. Dette er grundig dekket av Nyquists samplingsteorem.

Korrekt, det er i ferd med å avta fordi det gir bedre kvalitet å ikke ha det når oppløsningen er høyere, noe som det er grunn til å tro er noe som vil fortsette, og relevans av høyere oppløsning dermed vil fortsette å være tilstedet.

Argumentasjonen din er i beste fall mangelfull. Det å fjerne OLPF gir aliasing. Aliasing kan være et problem. Grunnen til at noen foretrekker å være uten OLPF synes primært å være manglende forståelse for god oppskarping sammen med en preferanse for scener som gjør aliasing lite synlig. Dette er uansett irrelevant for video hvor man uten unntak ønsker romlig AA.

 

Siden sensel-tettheten øker raskere enn hva bedringer i optikk gjør, så erstatter diffraksjon/optikk-mangler/kamera-bevegelse i større og større grad filtreringen. Dette gjør ikke at vi er uten prefilter, bare at jobben (i noen grad) gjøres implisitt.

Det er ikke tullprat, du spekulerer i at denne type acuity spesifikt ikke gjelder på TV, det er ikke min bevisbyrde,

Når du er hoven mot folk i en diskusjon og ikke greier å levere fra deg en eneste referanse så tror jeg det er på tide at du tar deg en tenkepause.

 

-k

 

 

Nei, det har du ikke argument for, det er helt vanlig at topper er mellom samplinger, det er ivaretatt av nyqvist, på hvilken måte er det du mener dette fører til en tidsforskyvning mellom kanaler, helt konkret?

 

Man ønsker alisasing fordi oppløsning er for lav, det er grunn til å tro aliasingen gradvis forsvinner ettersom oppløsningen øker, derfor er ikke tilstedeverelsen av aliasing et argument for at vi ikke trenger høyere oppløsning.

 

Tviler du på at vernier-acuity er et fenomen? Eller maser du bare om referanser for å være vond? Det er ekstremt lett å finne når man kjenner navnet på effekten, jeg har derfor ikke postet referansene før folk spør om det av en grunn.  Har postet en liste her om du virkelig er interessert:

 

Og folk kommer med påstander som ikke er underbygd, når folk sier at man ikke kan se forskjell, og det strider mot forskningen, så må de regne med å få konkrete motsvar tilbake.

 

AtW

 

  1. ^ Jump up to: a b Robert H. Duckman (2006). Visual Development, Diagnosis, and Treatment of the Pediatric Patient. Lippincott Williams & Wilkins. pp. 36–48. ISBN 978-0-7817-5288-6. 
  2. Jump up ^ Sal Soraci; Kimiyo Murata-Soraci (2003). Visual Information Processing. Greenwood Publishing Group. p. 51. ISBN 978-1-56750-685-3. 
  3. ^ Jump up to: a b c Gordon Dutton; Martin Bax (25 October 2010). Visual Impairment in Children due to Damage to the Brain: Clinics in Developmental Medicine. John Wiley & Sons. p. 80. ISBN 978-1-898683-86-5. 
  4. Jump up ^ J.R. Brannan (23 January 1992). Applications of Parallel Processing in Vision. Elsevier. p. 95. ISBN 978-0-08-086740-3. 
  5. Jump up ^ Westheimer G, McKee SP. (1978) Stereoscopic acuity for moving retinal images. Journal of the Optical Society of America, 68(4):450-455 doi:10.1364/JOSA.68.000450
  6. Jump up ^ Ian P. Howard Center for Vision Research York University; Brian J. Rogers Department of Experimental Psychology Oxford University (30 November 1995). Binocular Vision and Stereopsis. Oxford University Press. p. 180. ISBN 978-0-19-802461-3
Endret av ATWindsor
Lenke til kommentar

Nei, det har du ikke argument for, det er helt vanlig at topper er mellom samplinger, det er ivaretatt av nyqvist, på hvilken måte er det du mener dette fører til en tidsforskyvning mellom kanaler, helt konkret?

De to sekvensene antydet under enkoder en tenkt puls som ligger mellom sample#2 og sample#3. For enkel hets skyld har jeg antatt et enkelt filter slik at jeg slipper å skrive ut alle subfasene. Ved dekoding så vil den første gi ut en puls som er forskyvd litt i tid kontra den andre. Dette tilsvarer et delay i kontinuerlig tid (i dette tilfellet en grov tilnærming fordi det er kjedelig å skrive sample-verdier for et perfekt sinc-filter. Men datamaskiner gjør gjerne slike kjedelige jobber).

[0 0.1 0.9 0]

[0 0.9 0.1 0]

 

Er vi enige om definisjonen av forsinkelse? Noe skjer litt senere når det blir mer forsinket. Jeg hevder at det er mulig å forsinke en kanal mye mindre enn 1/44100 sekund på CD.

 

Du later til å ikke forstå forskjellen mellom Gibbs fenomen og hva som skjer når du lavpassfiltrerer et pulstog? En DAC har "inter-sample overs" som følge av filtreringen. Det er noe annet enn at et digitalt system kan støtte (nært) vilkårlig delay.

 

Man ønsker alisasing fordi oppløsning er for lav, det er grunn til å tro aliasingen gradvis forsvinner ettersom oppløsningen øker, derfor er ikke tilstedeverelsen av aliasing et argument for at vi ikke trenger høyere oppløsning.

Tilstedeværelse av aliasing er et bevis på at det kontinuerlige systemet (objektiv m.m.) kan oppløse mer enn hva sensoren kan. Hvorvidt man "trenger" eller "ønsker" mer oppløsning er en annen sak.

 

Hvis man ønsker å gjenskape en kurveform unikt (korrekt) så må man fjerne aliasing. Dette kan løses ved et OLPF filter, ved å riste på kamera, ved å bruke billig optikk eller ved å ha en sensor med mange MP.

Tviler du på at vernier-acuity er et fenomen?

Nei, jeg tviler på at Vernier Acuity gjør at vi trenger (kan nyttiggjøre oss) større skjermoppløsning enn hva faktiske subjektive tester tilsier. Kom gjerne med en konkret henvisning på det.

 

At du kan copy & paste bunnen av wikipedias artikkel om Vernier Acuity gir meg ikke akkurat tiltro til at du aner hva du snakker om.

 

-k

Endret av knutinh
  • Liker 2
Lenke til kommentar

 

Du antar at alle bruker likt pixel-layout. Har du bevis for at alle TVer bruker pixel layout med rader og kolonner?

Selvsagt kan jeg ikke bevise at _alle_ tver har noe som helst. Hvordan mente du at jeg skulle kunne bevise det?

 

De fleste digitale display bruker en variant av rgb-stripe (kolonner med pixler hvor hver pixel består av 3 subpixler distribuert horisontalt i r-g-b eller b-g-r). Dette er såpass vanlig at Microsoft utnyttet det i sin ClearType teknologi.

 

Det finnes flere andre måter å legge ut subpixler på som alle har mer eller mindre subtile forskjeller. Wikipedia dekker det greit:

 

https://en.wikipedia.org/wiki/Subpixel_rendering

Det at matte kan brukes til noe, betyr ikke at det kan brukes for noe annet.

Hva mener du at man skal svare på noe sånt?

 

-k

 

Jeg forventer ikke at du kan bevise at alle er det. En ganske safe setning fra meg, da den er tilnærmet umulig å motbevise :p

 

Den er gjerne såpass vanlig at MS bruker den til ClearType teknologien sin, men de bruker ikke slik layout selv:

WIN_20151109_21_44_34_Pro_575px.jpg

 

Ellers vil du nok og slite med å finne OLED paneler som bruker et slikt layout. Så hvorfor ikke bare ha en test der du ikke driver med kolonner? Det er mye bedre med en faktisk test, der du se på hvordan folk faktisk oppfatter det.

 

Angående det med lyd og matte. Siden jeg ikke er noen tilhenger av å bruke matte for å finne ut om man kan se forskjellen eller ikke, så forventer jeg egentlig ikke noe svar :) Det å bruke matte for å analysere lyd f.eks er jeg helt med på, og det fungerer svært bra. Det å bruke det for å analysere om man ser forskjell derimot? Det blir veldig annerledes. Noe jeg mener må testes, ikke regnes ut.

Lenke til kommentar

Jeg forventer ikke at du kan bevise at alle er det. En ganske safe setning fra meg, da den er tilnærmet umulig å motbevise :p

Digitale bilder er på ett eller annet trinn organisert som regulære array. Når tven din lagrer et frame-buffer så er det med hvert av planene i rgb eller ycbcr organisert som array. Når forskerne som jobbet for å gjøre tv bedre så jobbet de i de fleste tilfellene med representasjoner hvor hver pixel var et datapunkt i en matrise.

 

Å underslå dette er å stikke hodet i sanden etter min mening.

 

For noen skjermteknologier så har noen funnet det regningssvarende å organisere subpixler i ymse regulære (men mer komplekse) mønstre enn ren rgb stripe.

Angående det med lyd og matte. Siden jeg ikke er noen tilhenger av å bruke matte for å finne ut om man kan se forskjellen eller ikke, så forventer jeg egentlig ikke noe svar :) Det å bruke matte for å analysere lyd f.eks er jeg helt med på, og det fungerer svært bra. Det å bruke det for å analysere om man ser forskjell derimot? Det blir veldig annerledes. Noe jeg mener må testes, ikke regnes ut.

Når AAC-codecen i mobiltelefonen din tillater deg å lagre 10 eller 20 ganger mer musikk enn du kunne med PCM så skyldes det at man har en avansert matematisk modell av hørselen din. Denne modellen har selvsagt (som alt menneskeskapt) svakheter.

 

-k

Endret av knutinh
Lenke til kommentar

 

Nei, det har du ikke argument for, det er helt vanlig at topper er mellom samplinger, det er ivaretatt av nyqvist, på hvilken måte er det du mener dette fører til en tidsforskyvning mellom kanaler, helt konkret?

De to sekvensene antydet under enkoder en tenkt puls som ligger mellom sample#2 og sample#3. For enkel hets skyld har jeg antatt et enkelt filter slik at jeg slipper å skrive ut alle subfasene. Ved dekoding så vil den første gi ut en puls som er forskyvd litt i tid kontra den andre. Dette tilsvarer et delay i kontinuerlig tid (i dette tilfellet en grov tilnærming fordi det er kjedelig å skrive sample-verdier for et perfekt sinc-filter. Men datamaskiner gjør gjerne slike kjedelige jobber).

[0 0.1 0.9 0]

[0 0.9 0.1 0]

 

Er vi enige om definisjonen av forsinkelse? Noe skjer litt senere når det blir mer forsinket. Jeg hevder at det er mulig å forsinke en kanal mye mindre enn 1/44100 sekund på CD.

 

Du later til å ikke forstå forskjellen mellom Gibbs fenomen og hva som skjer når du lavpassfiltrerer et pulstog? En DAC har "inter-sample overs" som følge av filtreringen. Det er noe annet enn at et digitalt system kan støtte (nært) vilkårlig delay.

 

Man ønsker alisasing fordi oppløsning er for lav, det er grunn til å tro aliasingen gradvis forsvinner ettersom oppløsningen øker, derfor er ikke tilstedeverelsen av aliasing et argument for at vi ikke trenger høyere oppløsning.

Tilstedeværelse av aliasing er et bevis på at det kontinuerlige systemet (objektiv m.m.) kan oppløse mer enn hva sensoren kan. Hvorvidt man "trenger" eller "ønsker" mer oppløsning er en annen sak.

 

Hvis man ønsker å gjenskape en kurveform unikt (korrekt) så må man fjerne aliasing. Dette kan løses ved et OLPF filter, ved å riste på kamera, ved å bruke billig optikk eller ved å ha en sensor med mange MP.

Tviler du på at vernier-acuity er et fenomen?

Nei, jeg tviler på at Vernier Acuity gjør at vi trenger (kan nyttiggjøre oss) større skjermoppløsning enn hva faktiske subjektive tester tilsier. Kom gjerne med en konkret henvisning på det.

 

At du kan copy & paste bunnen av wikipedias artikkel om Vernier Acuity gir meg ikke akkurat tiltro til at du aner hva du snakker om.

 

-k

 

 

For det første kan man ikke representere en ren puls med 44100 sampling-rate i det hele tatt, men la oss si det er en topp, begge de to rekkene med verdier gir oss en entydig bølge, der også bølgens topp er gitt i tid, du framstiller det som vi ikke vet mer enn at det er en topp et sted mellom to samples, vi vet mye mer, vi vet akkurat hvor den skal være, fordi takket være nyqvist så er den rekken med avlesninger noe som tilsvarer en og bare en bølgeform, både i tid og amplitude.

Så du tviler ikke på at det er et fenomen, hvorfor maser du da om referanser? For moro skyld? At man kan copy-paste rett fra wikipedia illustrer veldig godt nettopp hvorfor jeg ikke har postet referansene, fordi det er kjempeenkelt å finne for de som er interessert. Det er du som driver å framhever å skrive disse referansene eksplisitt som viktige, ikke meg.

 

Og hvilke "faktiske tester" er det du henviser til? Jeg er meget interessert om du kan henvise til vitenskaplige tester av oppløsningsevne på TVer og hva folk ser forskjell på. Selv tidligere i denne tråden er det vist en test du selv kan ta for å se at vernier-acuity gjør seg gjeldene på en PC-skjerm.

 

AtW

Lenke til kommentar

Jeg elsker sånne tester. Skulle ønsket man gjorde en lignende test om 4k dataskjermene

 

Jeg kan garantere at det er en helt annen verden på PC, der man sitter 40/50 cm fra skjermen. Jeg jobber på en 4K og to Full HD-skjermer, og pixlene på Full HD-skjermene er veldig enkle å se kontra 4K.

 

Hjemme i stua har jeg nettopp kjøpt en Full HD-tv og ignorerte glatt 4K - og er kjempefornøyd med det.

Lenke til kommentar

For det første kan man ikke representere en ren puls med 44100 sampling-rate i det hele tatt

La meg være mer eksplisitt: en båndbreddebegrenset kurvesnutt med endelig varighet og endelig energi.

, men la oss si det er en topp, begge de to rekkene med verdier gir oss en entydig bølge, der også bølgens topp er gitt i tid, du framstiller det som vi ikke vet mer enn at det er en topp et sted mellom to samples, vi vet mye mer, vi vet akkurat hvor den skal være, fordi takket være nyqvist så er den rekken med avlesninger noe som tilsvarer en og bare en bølgeform, både i tid og amplitude.

Nettopp. Så da er vi enige om at tidligere nevnte kurvesnutt kan gjengis med nært vilkårlig sub-sample delay i et samplet system? Er vi også enige om at CD og digitale bilder er samplede systemer i hhv tid og 2-d rom?

Så du tviler ikke på at det er et fenomen, hvorfor maser du da om referanser? For moro skyld?

Det jeg spør om og det du tilbyr er ikke det samme. Hvordan skal jeg formulere spørsmålet når du ikke gidder å lese?

At man kan copy-paste rett fra wikipedia illustrer veldig godt nettopp hvorfor jeg ikke har postet referansene, fordi det er kjempeenkelt å finne for de som er interessert. Det er du som driver å framhever å skrive disse referansene eksplisitt som viktige, ikke meg.

Du viser utmerket hvordan det å kunne søke på wikipedia ikke gjør deg til ekspert.

Og hvilke "faktiske tester" er det du henviser til? Jeg er meget interessert om du kan henvise til vitenskaplige tester av oppløsningsevne på TVer og hva folk ser forskjell på. Selv tidligere i denne tråden er det vist en test du selv kan ta for å se at vernier-acuity gjør seg gjeldene på en PC-skjerm.

"Tests of visual acuity to determine the resolution required of a television transmission system"

http://downloads.bbc.co.uk/rd/pubs/whp/whp-pdf-files/WHP092.pdf

"The results confirm the widely held value of 1 minute of arc, and can be used to determine the TV standards needed in the coming large-screen display age."

Endret av knutinh
  • Liker 1
Lenke til kommentar

"It turns out the ability of humans to distinguish between two different lines is actually ten times greater than 20/20 visual acuity. This is referred to as Vernier acuity and is the reason a Vernier scale like the one shown below allows users to measure things more precisely than using a uniformly-divided straight scale. You can prove this to yourself by taking this simple yet ingenious online test. This test proves that differences between Vernier lines can still be judged when the gap of a so-called “Landolt C” can no longer be recognized. In most cases the difference between these two is very large. That means while someone with excellent vision cannot recognize the orientation of the small “c” on the right (which has a 0.5 pixel gap size at normal reading distance), they can distinguish the gap between two lines that are only 0.05 pixels apart — that’s a 10x improvement."

 

Kilde: http://mostly-tech.com/2013/11/08/debunking-the-retina-display-myth/

Endret av TKongen
Lenke til kommentar

Digitale bilder er på ett eller annet trinn organisert som regulære array. Når tven din lagrer et frame-buffer så er det med hvert av planene i rgb eller ycbcr organisert som array. Når forskerne som jobbet for å gjøre tv bedre så jobbet de i de fleste tilfellene med representasjoner hvor hver pixel var et datapunkt i en matrise.

Å underslå dette er å stikke hodet i sanden etter min mening.

 

For noen skjermteknologier så har noen funnet det regningssvarende å organisere subpixler i ymse regulære (men mer komplekse) mønstre enn ren rgb stripe.

Angående det med lyd og matte. Siden jeg ikke er noen tilhenger av å bruke matte for å finne ut om man kan se forskjellen eller ikke, så forventer jeg egentlig ikke noe svar :) Det å bruke matte for å analysere lyd f.eks er jeg helt med på, og det fungerer svært bra. Det å bruke det for å analysere om man ser forskjell derimot? Det blir veldig annerledes. Noe jeg mener må testes, ikke regnes ut.

Når AAC-codecen i mobiltelefonen din tillater deg å lagre 10 eller 20 ganger mer musikk enn du kunne med PCM så skyldes det at man har en avansert matematisk modell av hørselen din. Denne modellen har selvsagt (som alt menneskeskapt) svakheter.

 

-k

 

At digitale bilder lages som matriser er lite relevant. Jeg snakker om hva øyet fysisk ser, ikke hvordan den digitale representasjonen er. Hvis TVen ikke har linjer og kolonner, så har den ikke det, uansett om kildemateriale har det. Det er ikke verre enn det.

 

Og du snakker om "noen skjermteknologier" Bildet jeg linket var LCD. Og hva med når OLED blir den store skjermteknologien? Da funker plutselig ikke formelen lengre, da ingen har kolonner og rekker. En skikkelig test vil funger uansett derimot.

 

Jeg er klar over at det finnes ekstrem gode matematiske modeller for lyd, som komprimerer uten at du kan høre forskjell (bortsett fra noen få utvalgte individer i verden, som også kan høre frekvenser over det vi kan som mennesker, åpenbart). Likevel ser jeg ikke hva dette har med å se piksler å gjøre? Jeg bryr meg ikke om du kan skape en feilfri algoritme for lyd. Det er like irrelevant for syn. Vi vet ikke om lys er bølger eller fotoner engang!

Lenke til kommentar

 

 

 

Men ser egentlig ikke noe poeng i å kjøpe 4K enda, med mindre du må kjøpe ny tv i morgen. Ville heller ventet til at toppmodellene innen SUHD og OLED blir billigere og at UHD blu-rays begynner å komme ut i starten av 2016. Netflix sitt UHD innhold er elendig.

Jeg er ganske sikker på at SUHD, eller skjermer med Quantum dot som det egentlig er, faktisk er billigere å lage. De bare selger dem dyrt, fordi de kan.

Rettelse: De selger de dyrt fordi de må få tilbake de millionene de had brukt på utvikling for å være i stand til å lage skjermene. Forskere og ingeniører jobber ikke gratis.

 

 

Rettelse: De selger det dyrt fordi de kan, hadde det ikke vært mulig å selge dyrt, så måtte de senket prisen og tapt pengene, å insistere på noe annet hadde bare ført til et enda større tap for de.

 

AtW

 

Hadde de ikke hatt mulighet til å selge dyrt, så hadde de tapt penger for hvert eneste produkt de ville utvikle. De måtte ha gått over til å produsere produkter hvor produksjonsmetoden er velkjent og lett å kopiere (slik som en rekke jallaprodusenter allerede gjør). Det hadde ikke blitt mye fremgang i elektronikkverdenen om alle skulle ha lagt kopier i stedet for å utvikle nye og bedre teknologier.

Endret av Pseudopod
Lenke til kommentar

Stemmer, hadde ikke hatt muligheten ville de tapt, det er sjangse de tar når de bruker penger på utvikling, nemlig at det fører til at de senere har mulighet til å selge dyrt. Men utviklingskostandene er allerede brukt, kan de ikke selge dyrt fordi muligheten ikke er der må de bare svelge utgiftene og selge til en lavere pris.

 

AtW

Lenke til kommentar

 

For det første kan man ikke representere en ren puls med 44100 sampling-rate i det hele tatt

La meg være mer eksplisitt: en båndbreddebegrenset kurvesnutt med endelig varighet og endelig energi.

, men la oss si det er en topp, begge de to rekkene med verdier gir oss en entydig bølge, der også bølgens topp er gitt i tid, du framstiller det som vi ikke vet mer enn at det er en topp et sted mellom to samples, vi vet mye mer, vi vet akkurat hvor den skal være, fordi takket være nyqvist så er den rekken med avlesninger noe som tilsvarer en og bare en bølgeform, både i tid og amplitude.

Nettopp. Så da er vi enige om at tidligere nevnte kurvesnutt kan gjengis med nært vilkårlig sub-sample delay i et samplet system? Er vi også enige om at CD og digitale bilder er samplede systemer i hhv tid og 2-d rom?

Så du tviler ikke på at det er et fenomen, hvorfor maser du da om referanser? For moro skyld?

Det jeg spør om og det du tilbyr er ikke det samme. Hvordan skal jeg formulere spørsmålet når du ikke gidder å lese?

At man kan copy-paste rett fra wikipedia illustrer veldig godt nettopp hvorfor jeg ikke har postet referansene, fordi det er kjempeenkelt å finne for de som er interessert. Det er du som driver å framhever å skrive disse referansene eksplisitt som viktige, ikke meg.

Du viser utmerket hvordan det å kunne søke på wikipedia ikke gjør deg til ekspert.

Og hvilke "faktiske tester" er det du henviser til? Jeg er meget interessert om du kan henvise til vitenskaplige tester av oppløsningsevne på TVer og hva folk ser forskjell på. Selv tidligere i denne tråden er det vist en test du selv kan ta for å se at vernier-acuity gjør seg gjeldene på en PC-skjerm.

"Tests of visual acuity to determine the resolution required of a television transmission system"

http://downloads.bbc.co.uk/rd/pubs/whp/whp-pdf-files/WHP092.pdf

"The results confirm the widely held value of 1 minute of arc, and can be used to determine the TV standards needed in the coming large-screen display age."

 

 

Korrekt, man kan angi forsinkelser som er kortere enn en sample, og begge er "samplede systemer", i den forstand at all digital lagring av denne typen er det, men hvor er relevansen til ditt argument?

 

Så hva er det du mener du har spurt om?

 

Korrekt, å kopiere fra wikipedia gjør ingen automatisk til ekspert, det er det så vidt jeg vet heller ingen som har hevdet.

 

Takk for lenken, har dessverre lest akkurat denne før, synes du den underbygger at vi ikke kan se mer enn et bueminutt? Hva med testene av vernier-acuity folk har postet her du kan gjøre på din egen skjerm, hva er din kommentar til det?

 

AtW

Lenke til kommentar

Stemmer, hadde ikke hatt muligheten ville de tapt, det er sjangse de tar når de bruker penger på utvikling, nemlig at det fører til at de senere har mulighet til å selge dyrt. Men utviklingskostandene er allerede brukt, kan de ikke selge dyrt fordi muligheten ikke er der må de bare svelge utgiftene og selge til en lavere pris.

 

AtW

Ja, så vi er ikke uenige, egentlig. De tar høyere pris fordi de kan, og hadde de ikke trodd at de kunne, så hadde de ikke utviklet produktene og til syvende og sist hadde forbrukerene tapt på dette, i alle fall dersom forbrukerene ønsket seg bedre TVer.

Lenke til kommentar

 

Stemmer, hadde ikke hatt muligheten ville de tapt, det er sjangse de tar når de bruker penger på utvikling, nemlig at det fører til at de senere har mulighet til å selge dyrt. Men utviklingskostandene er allerede brukt, kan de ikke selge dyrt fordi muligheten ikke er der må de bare svelge utgiftene og selge til en lavere pris.

 

AtW

Ja, så vi er ikke uenige, egentlig. De tar høyere pris fordi de kan, og hadde de ikke trodd at de kunne, så hadde de ikke utviklet produktene og til syvende og sist hadde forbrukerene tapt på dette, i alle fall dersom forbrukerene ønsket seg bedre TVer.

 

 

Ja, det er vi enig om.

 

AtW

Lenke til kommentar

Tenk om folk hadde brukt like mye energi på konstruktiv oppbyggende makropolitikk og på å løse ressursfordelingsproblematikken som på debatter om alle TV'er har samme organisering på subpikslene. 

 

Tenk om folk hadde brukt like mye energi på å løse subpixel-organiseringens-problemet som på å klage på hva andre diskuterer? :)

 

AtW

Lenke til kommentar

Korrekt, man kan angi forsinkelser som er kortere enn en sample, og begge er "samplede systemer", i den forstand at all digital lagring av denne typen er det, men hvor er relevansen til ditt argument?

 

Så hva er det du mener du har spurt om?

Jeg mener å ha underbygd at det Vernier Acuity beskriver er noe som kan fanges og gjengis av et (perfekt) samplende system. Dermed er det irrelevant å sammenligne Vernier Acuity med pixel pitch, et godt digitalt bildesystem kan vise linjer som er forskyvd med mindre enn en pixel.

 

Takk for lenken, har dessverre lest akkurat denne før, synes du den underbygger at vi ikke kan se mer enn et bueminutt?

Den støtter det man trodde fra før. Noe som selvsagt er kjedelig men ganske vanlig.

Hva med testene av vernier-acuity folk har postet her du kan gjøre på din egen skjerm, hva er din kommentar til det?

Jeg ser bare helt standard Vernier-tester, så som denne :

http://www.michaelbach.de/ot/lum-hyperacuity/index.html

 

Jeg ser ikke at den viser at vi kan nyttiggjøre oss mer enn "retina" oppløsning. I beste fall viser den at godt pre/post-filtrering er lurt, men det er ikke akkurat nytt.

 

-k

Endret av knutinh
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...