Gå til innhold

Fremtiden til dSLR med crop-format


Anbefalte innlegg

Så fotoner har egenskaper til både partikler og bølger.

 

Det er det jeg mener (men foton = partikkelmodellen, vel? Lys kan både ha partikkel- og bølgeegenskaper) - men er det riktig å kun referere til partikkelmodellen når man snakker om største mulige oppløsning på lyssignalet som sensoren kan oppfatte? Hvorfor kan man ikke referere til lyset som treffer sensoren som ett kontinuerlig (variabelt) elektromagnetisk felt, hvor oppløsningen ikke er begrenset av en tenkt diskret størrelse (fotonene), men heller ved hvor mange elektronhull det er plass til i substratet på en enkelt fotodiode?

 

Har ett foton større eller mindre energimengde enn det som skal til for å lage ett elektronhull i substratet (på dagens sensorer)?

Lenke til kommentar
Videoannonse
Annonse

Altså, det kan jo ikke være noen intrinsikk informasjonsgrense i en lysmengde som man har truffet med dagens sensorer. Det er et såpass enormt gap mellom hva våre egne øyne presterer og hva dagens sensorer presterer at jeg nekter å gå med på det. Men det er tydelig at det ikke skjer spesielt mye på den fronten for tiden. Når det gjelder signal/støyforhold altså.

 

Kontrastomfanget synes jeg burde være det neste problemet sensorfolkene skal løse ordentlig. Når vi får sensorer som i praksis kan "streame" signalet og aldri kan overeksponeres fjerner vi den irriterende nedre følsomhetsgrensen som sensorene har i dag. Skal man gjøre dette manuelt i dag blir det for lange pauser mellom eksponeringene til at det kan brukes på noe annet enn stilleben på stativ. Kanskje utviklingen vi har i dag på video vil lede til dette en dag.

Lenke til kommentar

Husk at sensorene faktisk har bedre kontrastomfang enn øynene våre. Ca 10 trinn på øynene vs ca 14 trinn på Pentax K-7 og Nikon D7000. Øynene våre tilpasser derimot det dynamiske kontrastomfanget ved hjelp av iris (blenderen), kjemiske endringer i netthinna og to sett reseptorer (staver og tapper), med ulik sensitivitet. I tillegg er vi utstyrt med en hjerne som gjør særdeles avansert bildebehandling i en rasende fart. Dette skjer så automatisk at vi normalt ikke legger merke til at prosesseringen foregår. F.eks tenker vi sjeldent over at vi ser monokromt når det er ca månelyst og svakere eller at støyfiltreringen går hardt ut over detaljoppfattelsen eller at synet fanger lys som et videokamera uten bestemte eksponeringstider og at støyfjerningen også fungerer langs tids-aksen.

 

En annen ting er sammenligningen mellom digitale silisiumsensorer og film. Film består av lyssensitive korn med ulik størrelsegradering. Stor størrelse = høy ISO, liten størrelse = lav ISO. Å kalle film analogt er ganske unyansert siden se lyssensitive kornene har distinkte fysiske størrelser og er likefargede over hele kornflatene. Selv om ikke detaljene er i kvadratisk mønster så reduseres de med økt ISO. Selv på ISO 100 utfordres nå film av digitale sensorer. På høy ISO er film langt forbigått av digitale sensorer.

 

Kontrastomfang på de beste sort/hvitt-filmene som noen gang har vært i produksjon er i størrelseorden 15 trinn mellom der detaljnivået flater ut i begge ender (overeksponert/undereksponert). De beste filmene er nå ute av produksjon. Av de som fortsatt er tilgjengelig er vel Illford 400 ASA blant de aller beste med ca 13-14 trinn kontrastomfang. Det vil si i underkant av det de råeste digitale sensorene klarer på ISO 80-100. Men til gjengjeld gir sistnevnte bedre detaljnivå (grunnet kornstørrelse vs pikselstørrelse) og farger. Hadde man fjernet fargefilteret fra dagens beste sensorer hadde man kommet opp mot ca 15 trinn kontrastomfang. Det er mulig man kan klare det ved å legge til en ISO 50-modus i farge også, hvis brønnkapasiteten er stor nok. Ekte ISO 50 (med nok brønnkapasitet) tror jeg vi får digitalt i løpet av de nærmeste årene.

 

Sensitivitetsnivået i den nedre delen av skalaen tror jeg er såpass utnyttet nå at det er lite igjen å hente uten å gjøre noe radikalt med sensorteknologien. (Sensorer uten fargefilter vil selvsagt hjelpe litt, men det blir nok bare en liten nisje). Detaljer i høylys og ekte svært lav ISO tror jeg blir en mye mer reell utviklingstrend. Detaljer i høylysene kan man få ved hjelp av flere smarte teknikker. F.eks slik som Fujifilm løser det med Super CCD sensorene, ved hjelp av timing til brønnene går fulle eller to parallelle brønner per lyssensor, der den ene har stort motstand mot opplading. Eller rett og slett nøye oss med luremetoden gråfilter selv om det bare gir lavere "ISO" uten å øke kontrastomfanget.

Lenke til kommentar

Og kunne du telt fotonene eksakt ville du fått et støytfritt signal som hadde tålt mye mer forsterkning uten kvalitetstap.

Nei, det er akkurat det du ikke får. Eller rettere sakt, du måler både signalet og fotonstøyen ("shot noise") helt nøyaktig, men du klarer ikke å skille noe bedre mellom ønsket signal og støy.

 

Det er to kilder til støy i et bilde: fotonstøy, som er dominerende når det er lite lys, og sensorstøy som dominerer ellers. Den første er en fundamental funksjon av kvantemekanikken, og ikke noe vi kan gjøre noe med.

Lenke til kommentar

Jeg lurer på hvorfor det bare refereres til antall fotoner når man skal beskrive intensiteten av lys som treffer en bildesensor (det er ikke kun begrenset til dette innlegget) - betyr det at det nå er vedtatt (og bevist) at lys kun kan beskrives som den diskrete størrelsen fotoner, og at bølgemodellen er lagt død?

 

Hvordan forklarer man bølgelengde og diffraksjon uten bølgemodellen?

Alle partikler i bevegelse har bølgeegenskaper. En elektronstråle kan for eksempel også gi observerbare bølgefenomener, som diffraksjon. Fotoner skiller seg ut i at de ikke har noen hvilemasse, men både bølgemodellen og partikkelmodellen er gyldig for fotoner, akkurat som for alle andre partikler.

 

Og bølgeegenskapene er viktige i at de faktisk gir en begrensning på hvor nøyaktig det er fysisk mulig å måle posisjonen og retningen til et foton. Heisenbergs uskarphetsrelasjon gir faktisk en nedre begrensning på hvor nøyaktig det er fysisk mulig å måle både posisjonen og hastigheten til en partikkel samtidig, og den gjelder også for lys.

Lenke til kommentar

Det er det jeg mener (men foton = partikkelmodellen, vel? Lys kan både ha partikkel- og bølgeegenskaper) - men er det riktig å kun referere til partikkelmodellen når man snakker om største mulige oppløsning på lyssignalet som sensoren kan oppfatte? Hvorfor kan man ikke referere til lyset som treffer sensoren som ett kontinuerlig (variabelt) elektromagnetisk felt, hvor oppløsningen ikke er begrenset av en tenkt diskret størrelse (fotonene), men heller ved hvor mange elektronhull det er plass til i substratet på en enkelt fotodiode?

Fotoner er ikke en "tenkt" diskret størrelse, det er faktisk omvendt. Lys som en kontinuerlig bølge er en tenkt tilnærming. Universet er fundamentalt sett diskret, og hvor mange fotoner en lyskilde sender ut per tidsenhet er en stokastisk fordelt variabel som for en "kontinuerlig" lyskilde følger en poisson-distribusjon. Med andre ord, man kan ikke referere til lyset som et kontinuerlig elektromagnetisk felt, fordi det ikke er det.

 

Lys som en kontinuerlig funksjon er en tilnærming til den kvantemekaniske modellen, og fungerer greit for tilstrekkelig store lysmengder. Men her snakker vi i stor grad om grensetilfeller hvor det nettopp er kvantemekanikken som setter begrensningene. Og da fungerer ikke lenger bølgemodellen. Når sensorer når et presisjonsnivå hvor vi snakker om å få et detekterbart signal ut av et titalls fotoner som treffer en fotodiode, så blir den statistiske variasjonen såpass stor at vi ikke lenger kan tenke på lyset som kontinuerlig. Og når fotodiodene begynner å bli så små at et enkelt fotons bølgelengde faktisk gjør at det blir tilfeldig om det blir detektert av en bestemt fotodiode eller av en av naboene, så setter kvantemekanikken en hard begrensning på oppløsningsevnen (og dette er faktisk i ferd med å bli et reelt problem for de mest høyoppløste kompaktkamera- og mobiltelefonsensorene). Det er også grunnen til at vanlig fotolitografi med synlig lys ikke lenger lar seg bruke i produksjon av høyytelses integrerte kretser - kretsene har blitt så små at bølgelengden til synlig lys er større enn bredden til en kretsbane, og det derfor er fysisk umulig å konsentrere synlig lys på et tilstrekkelig lite område.

 

Har ett foton større eller mindre energimengde enn det som skal til for å lage ett elektronhull i substratet (på dagens sensorer)?
Det kommer an på frekvensen/bølgelengden. Men generelt, hvis fotonet har tilstrekkelig høy energi, så eksiterer det et elektron, hvis ikke så gjør det ikke det. Du kan ikke "samle opp" flere fotoner med lav energi for å få nok energi til å eksitere ett elektron. Kvantemekanikk er veldig enten-eller. Endret av Sutekh
Lenke til kommentar

Husk at sensorene faktisk har bedre kontrastomfang enn øynene våre. Ca 10 trinn på øynene vs ca 14 trinn på Pentax K-7 og Nikon D7000.

Hm. Sist vi var inne på den samme debatten mener jeg jeg fant en kilde på at statisk kontrastomfang for retina for de fleste mennesker er på mellom 100:1 og 400:1, altså ca 6,5-8,5 trinn.

 

EDIT: Retina, ikke iris.

Endret av Sutekh
Lenke til kommentar

Altså, det kan jo ikke være noen intrinsikk informasjonsgrense i en lysmengde som man har truffet med dagens sensorer. Det er et såpass enormt gap mellom hva våre egne øyne presterer og hva dagens sensorer presterer at jeg nekter å gå med på det. Men det er tydelig at det ikke skjer spesielt mye på den fronten for tiden. Når det gjelder signal/støyforhold altså.

Man filtrerer jo vekk ca. 50% av lyset med bayerfilteret, men av det lyset som slipper gjennom så er man nok ganske godt oppunder grensen for hva som er fysisk gjennomførbart å hente ut av nyttig informasjon per tilgjengelig foton. Teknikker for å trikse ting til i etterkant er en annen sak.

 

Som Simen nevner, så presterer ikke øyet i seg selv særlig bra. Det er bare det at hjernen din kobler inn minner og gjør en del veldig avansert photoshopping i sanntid for å fylle inn veldig mye informasjon som øyet ditt egentlig ikke fanger opp. Retina har egentlig et ganske dårlig statisk kontrastomfang, så hovedgrunnen til at synssansen klarer å oppnå et dynamisk omfang på rundt 20 trinn er at det hele tiden varierer "blenderåpningen" (og over litt lengre tidsskala: "ISO") og utfører kontinuerlig HDR-fotografering.

Endret av Sutekh
Lenke til kommentar

Man filtrerer jo vekk ca. 2/3 av lyset med bayerfilteret

Fixed. 50% av lyset vil kun være hvis filtrene slipper gjennom noen av de samme bølgelengdene i forskjellig fargede Bayerpiksler, eller hvis de grønne slapp igjennom 100% av lyset og de andre 0%.

Sier i alle fall mine generelle fysikk-betraktninger om emnet.

Lenke til kommentar

Fixed. 50% av lyset vil kun være hvis filtrene slipper gjennom noen av de samme bølgelengdene i forskjellig fargede Bayerpiksler, eller hvis de grønne slapp igjennom 100% av lyset og de andre 0%.

Sier i alle fall mine generelle fysikk-betraktninger om emnet.

I sollys vil spekteret av bølgelengder være slik at et RGGB-filter slipper gjennom ca. 50% av lyset.

 

I kunstig lys kan selvsagt fordelingen bli en helt annen. Av en rød lyskilde vil f.eks. bare 1/4 av lyset slippe gjennom.

 

Men som tommelfingerregel for de vanligste lysforholdene er 50% et greit utgangspunkt.

Lenke til kommentar

I sollys vil spekteret av bølgelengder være slik at et RGGB-filter slipper gjennom ca. 50% av lyset.

Med andre ord sier du at noen av de samme bølgelengdene slippes inn i forskjellig fargede filtre? Ellers vil 50% kun slippe gjennom hvis lyset kun består av kunstig lys som slippes rett igjennom de grønne filtrene.

Lenke til kommentar

Med andre ord sier du at noen av de samme bølgelengdene slippes inn i forskjellig fargede filtre? Ellers vil 50% kun slippe gjennom hvis lyset kun består av kunstig lys som slippes rett igjennom de grønne filtrene.

Nei, jeg sier at kombinasjonen av at "grønt" lys utgjør en større andel av sollyset med at det er like mange grønne fotosites som det er rød og blå til sammen gjør at i praksis slippes nærmere 50% av lyset igjennom.

 

Men det er for så vidt også riktig at det er et visst overlapp mellom de forskjellige filtrene, slik at både de røde og blå filtrene slipper gjennom noen bølgelengder som også slippes gjennom av de grønne.

Lenke til kommentar

Nei, jeg sier at kombinasjonen av at "grønt" lys utgjør en større andel av sollyset med at det er like mange grønne fotosites som det er rød og blå til sammen gjør at i praksis slippes nærmere 50% av lyset igjennom.

 

Men det er for så vidt også riktig at det er et visst overlapp mellom de forskjellige filtrene, slik at både de røde og blå filtrene slipper gjennom noen bølgelengder som også slippes gjennom av de grønne.

Hvis filtrene kun slapp gjennom "sine", disjunkte bølgelengder, så vil du kun kunne oppnå 50% dersom det ene og alene er "grønt" lys.

 

Men - (etter litt googling) det er, som du sier, overlapp, og det er derfor man kan komme opp på 50% effektivitet i "blandet" lys.

 

Note the relatively large degree of spectral overlap between the filters, especially in the 520 to 620 nanometer (green, yellow, and orange) region.

cmoschipsfigure4.jpg

Lenke til kommentar

Dxo-mark har vist målt fargerespons på de ulike fargekanalene.

 

Trykk på Color response her:

http://www.dxomark.com/index.php/en/Camera-Sensor/All-tested-sensors/Nikon/D7000

 

Hvor mye farge som smitter over til "feil" fargekanal varierer en del fra kamera til kamera. Jeg tror fargefiltrene er bevisst designet for å slippe gjennom litt av de andre fargene slik at sensoren tar i mot mer av det totale innfallende lyset og på den måten får bedre sensitivitet.

Endret av Simen1
Lenke til kommentar

Altså, det kan jo ikke være noen intrinsikk informasjonsgrense i en lysmengde som man har truffet med dagens sensorer. Det er et såpass enormt gap mellom hva våre egne øyne presterer og hva dagens sensorer presterer at jeg nekter å gå med på det. Men det er tydelig at det ikke skjer spesielt mye på den fronten for tiden. Når det gjelder signal/støyforhold altså.

Man filtrerer jo vekk ca. 50% av lyset med bayerfilteret, men av det lyset som slipper gjennom så er man nok ganske godt oppunder grensen for hva som er fysisk gjennomførbart å hente ut av nyttig informasjon per tilgjengelig foton. Teknikker for å trikse ting til i etterkant er en annen sak.

 

Som Simen nevner, så presterer ikke øyet i seg selv særlig bra. Det er bare det at hjernen din kobler inn minner og gjør en del veldig avansert photoshopping i sanntid for å fylle inn veldig mye informasjon som øyet ditt egentlig ikke fanger opp. Retina har egentlig et ganske dårlig statisk kontrastomfang, så hovedgrunnen til at synssansen klarer å oppnå et dynamisk omfang på rundt 20 trinn er at det hele tiden varierer "blenderåpningen" (og over litt lengre tidsskala: "ISO") og utfører kontinuerlig HDR-fotografering.

 

 

Så din påstand er at med en blenderåpning på 7mm og samme avstand til motivet vil en moderne sensor gi samme detaljnivå som det menneskelige øye i en situasjon med veldig lite lys? Eller ihvertfall innenfor ett trinn, siden man kaster halve lyset i rgb-filteret? Det høres usannsynlig ut. Det kommer fort litt an på hva slags lukkertid du definerer deg til å måtte trenge. Det hadde kanskje vært riktigere å sammenligne med video slik at man kan sende signalet gjennom den samme menneskelige bildebehandlingen. Jeg har ikke noe kamera som kan gi 7mm blenderåpning og filme, så jeg får ikke sammenlignet.

 

Når det gjelder kontrastomfang, så er det jo som dere sier, at "eksponeringen" tilpasses forholdene i synssentrum ganske fort og effektivt, men det betyr uansett at dagens sensorer ikke kan gjengi et motiv slik vi oppfatter det uten flere separate eksponeringer. Om man kan kutte tiden mellom eksponeringene ned til et punkt der en kjemiker ville sløyfet den fra beregningene åpner man for å løse dette på en god måte, uten å være avhengig av sensorstørrelsen.

Lenke til kommentar

Så din påstand er at med en blenderåpning på 7mm og samme avstand til motivet vil en moderne sensor gi samme detaljnivå som det menneskelige øye i en situasjon med veldig lite lys?

Hvis du tenker på hva retina faktisk klarer å levere av nyttig signal til hjernen, så vil jeg påstå at en moderne kamerasensor ved samme lysmengde som treffer overflaten på de fleste områder er langt overlegen retina.

 

Øynene dine er ikke på langt nær så bra som hjernen din klarer å innbille deg.

 

At kamerasystemet med etterbehandling ikke gjengir motivet slik vi oppfatter det er en litt annen problemstilling.

 

Personlig driver jeg med fotografering fordi jeg liker å fotografere, ikke fordi jeg vil gjenskape synsinntrykk, så for meg er akkurat det knekkende likegyldig. Jeg ser ikke helt poenget med å lage et kamerasystem som på død og liv skal kopiere menneskets evne til å innbille seg ting.

  • Liker 2
Lenke til kommentar

Ser mange her sier FF er dyrt, det er vel bare en liten del av sannheten.

 

Mer sant er vel det at produsentene gjør FF dyrt.

 

FF er ett nisjeprodukt rettet mot profesjonelle og veldig ivrige amatører, derfor kombinerer de kun FF med High End kamerahus.

 

En annen grunn er vel at FF sensorene må tjenes inn på færre antall solgte hus noe som egentlig er ett resultat av egen strategi. Når FF kun kombineres med de beste husene blir det også solgt mindre av i antall.

 

Når man får Crop-hus til 2-3000 kr ser jeg nesten INGEN grunn til at produsentene ikke kunne lage FF-hus til rundt 6-8000 kr.

 

Problemet hadde nok blitt dramatisk reduksjon av salget til FF i proffsegmentet.

 

FF vil nok uansett bli billigere og billigere og i fremtiden vil vi nok kunne velge mellom FF og Crop mer ut av behov enn pris.

Endret av Nasciboy
Lenke til kommentar
Hvor mye farge som smitter over til "feil" fargekanal varierer en del fra kamera til kamera. Jeg tror fargefiltrene er bevisst designet for å slippe gjennom litt av de andre fargene slik at sensoren tar i mot mer av det totale innfallende lyset og på den måten får bedre sensitivitet.

Ved å gjøre farge-kanalene mindre uavhengige så kan man muligens gjøre demosaic enklere. Dessuten er det jevnt over vanskelig å lage filtre med uendelig bratthet.

 

Som du sier så er det også en trade-off mellom hvor mange fotoner som blir talt, og hvor mange som blir talt bare innenfor en farge-kanal. Dersom filtrene er overlappende så kan man kanskje gi bedre luminans-snr på bekostning av farge-snr.

 

-k

Lenke til kommentar

Hvis du tenker på hva retina faktisk klarer å levere av nyttig signal til hjernen, så vil jeg påstå at en moderne kamerasensor ved samme lysmengde som treffer overflaten på de fleste områder er langt overlegen retina.

 

Hva er grunnlaget for denne påstanden? Jeg kan ikke si det er galt, men jeg kan ikke si at det stemmer overens med min oppfatning.

 

Øynene dine er ikke på langt nær så bra som hjernen din klarer å innbille deg.

 

At kamerasystemet med etterbehandling ikke gjengir motivet slik vi oppfatter det er en litt annen problemstilling.

 

Personlig driver jeg med fotografering fordi jeg liker å fotografere, ikke fordi jeg vil gjenskape synsinntrykk, så for meg er akkurat det knekkende likegyldig. Jeg ser ikke helt poenget med å lage et kamerasystem som på død og liv skal kopiere menneskets evne til å innbille seg ting.

 

Å gjengi motiver slik vi ser dem er ihvertfall et objektivt mål. Nå er det ikke slik at det alltid er det man ønsker, som du sier, men jeg ønsker ihvertfall ikke å bli påtvunget begrensninger i kameraet som ikke finnes i øynene mine. Det er heller ingen sammenheng mellom å gjengi virkeligheten og å "innbille seg ting". Et stereo-lydsignal innbiller seg ingenting, det skjer i hodene våre i etterkant.

Lenke til kommentar

Ser mange her sier FF er dyrt, det er vel bare en liten del av sannheten.

 

Mer sant er vel det at produsentene gjør FF dyrt.

 

Sett deg litt inn i produksjon av silisiumbrikker. De koster å lage per areal, og sannsynligheten for at de blir feilprodusert er per areal. Så hvis det koster 1000 kroner å produsere sensor A, og du må kaste halvparten av de du produserer, så vil det koste 2000 kroner å produsere den dobbelt så store sensor B, og du må kaste tre av fire. I praksis koster det altså 2000 for sensor A, og 8000 for sensor B. En sensor C som er fire ganger så stor koster 4000 å produsere, og du må kaste 7 av 8, altså koster det 32000 å produsere én. Litt forenklet, men du kjenner kanskje igjen priskurven fra aps-c, 135, mellomformat?

 

 

FF er ett nisjeprodukt rettet mot profesjonelle og veldig ivrige amatører, derfor kombinerer de kun FF med High End kamerahus.

 

 

Hva kunne de gjort med 5d2 for å gjøre det dårligere enn det er?

 

Men det er klart, når sensoren er såpass dyr, så gir det liten mening å kutte kostnader som gir minimale besparelser, og melder produktet helt ut av det funksjonelle segmentet sitt. De har vel for eksempel to kontrollhjul på 5d2, og jeg tror ikke du får kjøpt S-klasse med manuelle vindusheiser.

 

En annen grunn er vel at FF sensorene må tjenes inn på færre antall solgte hus noe som egentlig er ett resultat av egen strategi. Når FF kun kombineres med de beste husene blir det også solgt mindre av i antall.

 

Når man får Crop-hus til 2-3000 kr ser jeg nesten INGEN grunn til at produsentene ikke kunne lage FF-hus til rundt 6-8000 kr.

 

Problemet hadde nok blitt dramatisk reduksjon av salget til FF i proffsegmentet.

 

FF vil nok uansett bli billigere og billigere og i fremtiden vil vi nok kunne velge mellom FF og Crop mer ut av behov enn pris.

 

 

Det måtte vært Sony som prøvde dette da. Du får vel ikke kjøpt deres fullformathus lenger(?), men det kommer kanskje noe nytt snart derfra. Jeg tipper det ikke kommer til å koste 6000.

 

Jeg skulle gjerne sett priser på de forskjellige sensorene, for selv om størrelsen vil påvirke prisen drastisk vet jeg ikke hvor stor andel av kostnaden for kameraet sensoren står for. Koster en liten sensor 100,- og en stor 1000,- betyr det jo ikke allverdens, men om de koster 1000,- og 10000,- legger det rammene for hvilke priser produsentene kan operere med.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...