Gå til innhold

Ny brikke skal gi bedre mobilfoto


Anbefalte innlegg

Hva mener du her? Romlig uskarphet? Hvis du vil ha stor dybdeskarphet så er diffraksjon svakeste ledd. Hvis du vil ha lang lukkertid så er ofte motion blur (kamera eller scene-bevegelse) svakeste ledd. Optikken vil ha et skjæringspunkt mellom "stor" og "liten" blender hvor detaljgjengivelsen i fokus-planet er maksimal, men denne kan ikke gjøres vilkårlig god (selv i en idealisert verden). Større blender enn f/0.5 er visst ikke mulig med optikk basert på glass, og i praksis later det til at man får masse ikke-ideell oppførsel lenge før det.

 

Det er sikkert mulig å regne informasjons-teoretisk på objektiv og sensor, men det høres smertefullt ut, og muligens lite matnyttig. Hvor mye informasjon er det i (inntil, nominelt) N fotoner innenfor 400-800nm som kan fanges opp av et ideellt objektiv?

 

-k

Jo, det stemmer nok at diffraksjon, som oppstår når blenderen blir for liten, er en begrensning i optikken som man ikke kommer utenom. Og i praktisk fotofrafering vil det nok også kreve veldig raske lukkertider om man skal håndholde et kamera med "superoppløsning". Det jeg siktet til var at det ikke finnes noen definnitivt tak, absolutt grense for hvor høy oppløsning et enkelt objektiv kan gjengi (så lenge man holder seg under driffraksjonsgrensen). Selv et skitt-dårlig vidvinkelobjektiv vil gjengi LITT mere informasjon i ytterste hjørnet av motivet på et Nikon D800e enn hva det samme objektivet ville gjort på et Nikon D700.

Lenke til kommentar
Videoannonse
Annonse

Jo, det stemmer nok at diffraksjon, som oppstår når blenderen blir for liten, er en begrensning i optikken som man ikke kommer utenom. Og i praktisk fotofrafering vil det nok også kreve veldig raske lukkertider om man skal håndholde et kamera med "superoppløsning". Det jeg siktet til var at det ikke finnes noen definnitivt tak, absolutt grense for hvor høy oppløsning et enkelt objektiv kan gjengi (så lenge man holder seg under driffraksjonsgrensen). Selv et skitt-dårlig vidvinkelobjektiv vil gjengi LITT mere informasjon i ytterste hjørnet av motivet på et Nikon D800e enn hva det samme objektivet ville gjort på et Nikon D700.

Ved de oppløsningene vi er på i dag så stemmer det nok at enhver økning i sensel-tetthet vil gi en (målbar) forbedring i system-oppløsningene, om ikke alltid synlig. Det er en debatt om dette vil være tilfelle når kamera-sensorer blir 100MP eller 10GP. La oss vente og se...

 

Det er ikke det samme som at det teoretisk er sensoren som begrenser oppløsningen. Tenk på det som to lavpass-filter i serie, begge med slakk avrulling oppover i frekvens. La først filtrene ha nominelt lik cutoff-frekvens. Hvis du endrer cutoff på en av dem så endrer du systemets avrulling oppover. La så cutoffen til det ene filteret bli flere ganger større enn det andre. Da vil endringer i det ene filteret gi store endringer i system-responsen, mens endringer i det andre filteret vil gi bare marginale endringer.

 

-k

Endret av knutinh
Lenke til kommentar

I eksemplelbildet med 16 knøttsmå kameraer får vi i teorien 16 ganger bedre ISO-ytelse enn ett enkelt knøttkameara. F.eks samme støy-ytelse på ISO 3200 som man med et enkelt knøttkamera får på ISO 200.

Du får også 16 støykilder som må summeres så den totale forbedringen hvis vi går ut i fra at støyen er ideell er sqrt(16) = 4 hvis vi ikke bruker støyfjerning. Støyfjerningsalgoritmer fungerer bedre når det er mye data å jobbe med så med støyfjerning så vil forbedringen kunne bli betydelig større enn 4.

Lenke til kommentar

Du får også 16 støykilder som må summeres så den totale forbedringen hvis vi går ut i fra at støyen er ideell er sqrt(16) = 4 hvis vi ikke bruker støyfjerning.

Evt SNR2=S2/N2=16*S1/sqrt(16)*N1 = sqrt(16)*SNR1 = 4*SNR1 ?

 

Så er støyen proporsjonal med antall sensler (read noise), med korresponderende areal (shot-noise), eller en mellomting?

Støyfjerningsalgoritmer fungerer bedre når det er mye data å jobbe med så med støyfjerning så vil forbedringen kunne bli betydelig større enn 4.

Kost for optikk og sensorer later til å skalere ulineært: en dobling i bildesirkel/sensor-areal (eller "ytelse") gir mer enn dobling av pris.

 

Hvis man fant en god måte å kombinere flere små/billige "kamera" til et stort virtuelt kamera som gav lineær skalering i kost så kunne det være fint. At det passer godt til mobiler som har nok av areal men kan by på lite dybde er en ekstra bonus. Når du først har et slikt array (og gode algoritmer) så kan man jo tenke seg Lytro-style refokusering, stereoskopi etc.

 

-k

Endret av knutinh
Lenke til kommentar
Jeg har sett såpass mye bedritne mobilbilder fra kolleger og venner at jeg gremmes. Da er det - etter min mening - like greit å la være å ta bilder. Jeg mener nemlig at vitsen med å ta bilder er å ta gode bilder, ikke elendige støygrautbilder som ikke likner grisen.

 

Helt enig, men vi som er enige i det utsagnet er jeg rimelig sikker på er en minoritet. De fleste bryr seg ikke særlig mye, de vil ta bilder for å ta bilder. ISO, blender, lukker osv er tekniske og uforståelige begrep som de ikke har noen interesse av å lære seg. Legg bare merke til de mest populære bildene som dukker opp på instagram osv. Ikke nødvendigvis kvalitet. Desverre.

Lenke til kommentar

Ved de oppløsningene vi er på i dag så stemmer det nok at enhver økning i sensel-tetthet vil gi en (målbar) forbedring i system-oppløsningene, om ikke alltid synlig. Det er en debatt om dette vil være tilfelle når kamera-sensorer blir 100MP eller 10GP. La oss vente og se...

Er det allerede en debatt? Da regner jeg med at du tenker på mellom-format, der f.eks Phase One allerede er oppe i 80Mpx med IQ1.

Lenke til kommentar

Er det allerede en debatt? Da regner jeg med at du tenker på mellom-format, der f.eks Phase One allerede er oppe i 80Mpx med IQ1.

Mellomformat er såvidt jeg vet ikke i nærheten av det punktet. Jeg har sett noen gode argumenter for 400MP ved 24x36mm sensor i den blå enden av spekteret.

 

-k

Endret av knutinh
Lenke til kommentar

Om man klarer å holde tunga rett i munnen og finne ekvivalent optikk så vil vel støyen fra en 4*4 matrise med 3*4 mm sensorer(*) (totalt 192 mm2 areal) tilsvare støyen fra en enkelt sensor med 12*16 mm(**) (totalt 96 mm2 areal).

 

(*) Et eksempel er Nokia Lumia 720 med 3*4 mm sensor i baksidekameraet. Det har 1/3,4" format og f/1,9 og 26 mm FFe brennvidde. Noe som skulle tilsvare ca 3,2 mm reell brennvidde og ca 1,7 mm diameter blenderåpning.

 

(**) Noe som er ganske nært micro four thirds formatet. Hvis jeg har regnet rett vil ekvivalent optikk mhp støy til 16 stk av ovennevnte ha rundt 12,7 mm brennvidde og f/1,9 blender = 6,7 mm blenderdiameter.

 

Ikke verst om man får til et sånt bildestøynivå i en 9 mm tynn fremtidig telefon. Eller fullformatekvivalent støyytelse i en telefon med 8*9 matrise av 3*4 mm sensorer. Eller om det dukker opp matrisekameraer med sensorareal tilsvarende mellomformat/storformat til spesielle lavlysformål som støysvak timewarpfilming av ildfluer eller løver kun opplyst av stjernehimmelen.

 

_________________

 

En ulempe med matrise kontra sammenhengende sensor er at diffraksjon vil hindre høyere detaljgrad enn det de individuelle kameraene klarer. En annen er hva som kreves av batteriet. Så alt i alt tror jeg ikke vi får se de helt enorme matrisene. Dybdeskarphetsekvivalens og bokeh vil sikkert bli litt annerledes grunnet gap mellom kameramodulene og semikvadratisk "blender".

Endret av Simen1
Lenke til kommentar

Er det allerede en debatt? Da regner jeg med at du tenker på mellom-format, der f.eks Phase One allerede er oppe i 80Mpx med IQ1.

The online photographer: Why 80 Megapixels Just Won't Be Enough...

 

Artikkelen har vært diskutert flere ganger her på forumet. Canons 120 Mp APS-H sensor (for innomhus teknisk laboratoriearbeid) dukker gjerne opp i de samme diskusjonene. Nokias 41 Mp sensorer og hypotetiske fullformatsensorer med samme pikseltetthet dukker gjerne også opp.

Endret av Simen1
Lenke til kommentar

Så da er det snakk om en debatt ang 100Mpx i andre typer kameraer (mobil?)? Hvor, hva, når? Jeg vil gjerne lese mer om det.

 

Det gir ingen ulempe for bildekvaliteten å gå opp i antall piksler, så lenge man ikke går så høyt at supportelektronikken tar uforholdsmessig stor del av sensorarealet. Hvor den grensen går (for en gitt sensorstørrelse) avhenger av og produksjonteknologi/design.

 

Økning av antall piksler vil derimot gi en del fordeler. Bedre oppløsning er en åpenbar fordel, i hvert fall under ideelle forhold. Behovet for antialiasfilter vil også forsvinne, eksakt hvor vet jeg ikke, men allerede med dagens APS-C sensorer på max 24MP ser det ut til å være et lite problem. Går man til 50MP vil problemet sannsynligvis i praksis være helt borte. Går man ennå høyere vil man nå et punkt hvor oppløsningen på sensoren er så mye høyere enn optikkens (i det minste pga diffraksjon) at reduksjonen i oppløsning Bayer-filteret gir ikke påvirker reell oppløsning lenger.

 

Ulempen med høyere oppløsning er at pikslene må prosesseres raskt nok til å gi ønsket ytelse på kameraet og det begrenser hvor høyt det er praktisk å gå foreløpig. Lagring er et annet problem, men det ser ut til at minnekortkapasiteten stiger vesentlig raskere enn lagringsbehovet per bilde så pris for lagring av bilder synker.

Endret av se#
Lenke til kommentar

 

Det gir ingen ulempe for bildekvaliteten å gå opp i antall piksler, så lenge man ikke går så høyt at supportelektronikken tar uforholdsmessig stor del av sensorarealet. Hvor den grensen går (for en gitt sensorstørrelse) avhenger av og produksjonteknologi/design.

 

Økning av antall piksler vil derimot gi en del fordeler. Bedre oppløsning er en åpenbar fordel, i hvert fall under ideelle forhold. Behovet for antialiasfilter vil også forsvinne, eksakt hvor vet jeg ikke, men allerede med dagens APS-C sensorer på max 24MP ser det ut til å være et lite problem. Går man til 50MP vil problemet sannsynligvis i praksis være helt borte. Går man ennå høyere vil man nå et punkt hvor oppløsningen på sensoren er så mye høyere enn optikkens (i det minste pga diffraksjon) at reduksjonen i oppløsning Bayer-filteret gir ikke påvirker reell oppløsning lenger.

 

Ulempen med høyere oppløsning er at pikslene må prosesseres raskt nok til å gi ønsket ytelse på kameraet og det begrenser hvor høyt det er praktisk å gå foreløpig. Lagring er et annet problem, men det ser ut til at minnekortkapasiteten stiger vesentlig raskere enn lagringsbehovet per bilde så pris for lagring av bilder synker.

Og hvordan er dette relevant til det jeg spør etter? Flere piksler er utvilsomt en fordel om man vil printe i så høy kvalitet som mulig. Og jeg tar det for gitt at print er sluttproduktet av hele denne debatten... "Er støyen synlig i print."

Lenke til kommentar

Så da er det snakk om en debatt ang 100Mpx i andre typer kameraer (mobil?)? Hvor, hva, når? Jeg vil gjerne lese mer om det.

Jeg fant ikke linken jeg tenkte på, men noen av linkene under kan sette deg på sporet.

 

Argumentasjonen var noe ala:

Optiske systemer har en cutoff-frekvens hvor MTF er lik 0 (signalet som slippes inn er identisk med null). Dette er ved langt høyere frekvenser enn "diffraction limit" som mange fotografer snakker om, som angir separasjonen av to punkt-kilder (f.eks stjerner mot mørk himmel). Denne er en funksjon av bølgelengde, så om vi skal være "helt sikker" så må vi ta utgangspunkt i den blå enden av spekteret (kortest bølgelengder). For å kunne sample en sinoid så må man i følge Nyquist ha >2 samples per periode, selv med perfekt romlig båndbreddebegrensning/prefiltrering. Et kamera har ikke-ideell OLPF (som gir feil i passbåndet)og integrerer over noe nært en rektangulær funksjon. Blått samples med Bayer CFA som reduserer det fine 36MP kameraet til 9 MP i blå kanal.

 

Hvis man følger denne tankerekken for å finne hjørnetilfellet hvor man "møter veggen" (ikke kan regne med å få noen forbedring i romlig oppløsning av å øke antall piksler) så kommer man såvidt jeg vet til et veldig høyt tall. F.eks 400MP for 24x36mm. Det er et interessant tema, men jeg tror ikke at det er så praktisk å gruble på. Det forutsetter bl.a. perfekt dekonvolusjon (for å "hente opp" små detaljer som har kontrast som er bittelitt større enn null), noe som igjen forutsetter at man har utrolig lite støy (og mange andre upraktiske forutsetninger).

 

Jeg håper egentlig at kamera-produsenter heller fokuserer på produksjons-variasjon i objektivene sine, og nøyaktigheten i autofokus-systemer. Jeg tror at det betyr mer for detaljene i mine bilder.

 

http://www.dpreview.com/forums/post/32909685

http://www.dpreview.com/forums/post/32892618

Diffraction lowers contrast at high frequencies, rather than eliminating them. Anti-alias filters, and the low red and blue resolution in Bayer CFAs make the real, practical "diffraction limit" a bit less serious than the oversimplied models suggest.

...

There is a diffraction cutoff frequency which acts as a brick wall in that all detail above this frequency is eliminated by diffraction. The problem is that before this cutoff the MTF is smoothly reduced as the frequency increases and most people take the point where they first notice the loss in sharpness as the diffraction limit. They then often misapply the math for the Raleigh limit for resolution between two bright lines by failing to realize the pixel spacing is half this line spacing.

http://www2.engr.arizona.edu/~dial/ece425/notes9.pdf

 

http://www.dpreview.com/forums/post/37510786

 

Well, there is a diffraction cutoff above which the lens MTF for spatial frequencies is zero, so you could say that is a type of wall for the lens. You are right though that the individual MTF's multiply to yield the system MTF. But, once you remove the anti-aliasing filter and have a bit of oversampling, the MTF of the sensor would have little effect on the system MTF. Where is the lens wall? The diffraction cutoff "f" is at

f=1/(wavelength * f-stop)

The diffraction MTF of a lens is then:

2/pi * (acos(f) - f * sqrt(1-f * f))

 

If we want to use a sensor with a Bayer filter to sample green light for MTF of at least 9% (the Rayleigh criteria) we therefore need a pixel spacing of f-stop/3 just to meet the Nyquist criteria for green details at a 45 degree angle. That equates to 12mp at f/16 for an aps-c camera. That would still leave the possibility of aliasing of blue details at f16 and green details below f16: so we need a much finer spacing before we could remove the AA filter for all lenses at all f-stops. The pixel limit beyond which there is no further improvement in details depends on the lens and how meticulous the photographer's technique is. I expect that most photographers would see no further improvement beyond about 43-84 megapixels on aps-c, but to wring every bit of detail from the very best lenses would probably take the 288mp value that Romy would like. (a lens sharp at f/4 plus a bit of oversampling of the green light).

http://www.dpreview.com/forums/post/37497787

Endret av knutinh
Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...