Gå til innhold

[Løst]Binning og megapixel-ræs


Anbefalte innlegg

I et par andre tråde har vi været nogle stykker der har snakket om binning og i hvilket omfang det kan kompensere for problemerne med de små sensorer der jo er følge af megapixel-ræset.

 

Jeg håber at denne tråd kan være med til at 'lokke' akam til at foretage en grundig og objektiv test af binning.

 

Hvad er binning?

Binning er at man lægger reultatet fra flere sensorer sammen og behandler det som én enkelt sensor. Dette gøres for hver farvekanal.

 

Hvad er formålet med binning?

Formålet er at samle mere lys op i hver pixel, for at få et bedre signal/støj-forhold (SNR=Signal to Noise Ratio), på bekostning af lavere opløsning.

 

Perspektiv med binning?

HVIS man kan opnå at en sensor med binning bliver (næsten) ligeså lysfølsom som en sensor med lavere opløsning af samme total-størrelse,

vil man have opnået at man kan bruge den fine opløsning ved godt lys, men med binning have god lysfolsomhed ved dårligt lys.

Altså kan dette principielt fjerne de værste ulemper ved megapixel-ræsset. :D

Den højere opløste sensor vil stadig koste længere tid, og bruge mere strøm end den lavopløste, da der er større datamængder der skal behandles. Men det er jo begge dele ting som man med rimelighed kan håbe teknikken forbedrer med tiden.

 

Hvornår skal binning ske?

Ægte binning sker direkte på sensorniveau, hvor man samler resultaterne fra flere sensorer til en.

 

Hvis vi snakker Foveon er dette let at se for sig, da det de enkelte indgående sub-pixels ligger lige op ad hinanden.

Slår man derfor 2x2 foveon-pixels sammen til 1, ja så er det blot en firkant der er dobbelt så stor på hver led.

 

Man KAN gøre det samme med klassisk 2x2 Bayer R-G-G-B, men det er en lidt skidt idé, som jeg vil forsøge at forklare.

Med Bayer filtre laves normalt interpolation så fire sub-pixels R-G-G-B i 2x2 mønster laves til fire fulde RGB-pixels. Altså en slags 'invers binning'. Dette gøres ved at se på de omkringliggende sensorer. I simpleste udgave blot "nearest neighbour" af samme farve.

post-132057-1230646028_thumb.png

 

Når der skal laves binning, og man VED at chip efterfølgende skal lave denne interpolation, vil man derfor få et væsentligt bedre resultat hvis man ikke starter med at smide information om sted (og dermed opløsning) væk...

Altså i stedet for først at lægge farver sammen 2x2 og derefter interpolere tilbage, så i stedet at gøre fx følgende:

For hver rød subpixel lægges sensorens output sammen med sensor til venstre for, nedenfor, samt til venstre og nedenfor.

for hver blå subpixel lægges sensorens output sammen med sensor til højre for, ovenfor, samt til højre og ovenfor.

For det grønne par lægges deres samlede indhold sammen med de seks nærmeste omkransende grønne.

post-132057-1230646037_thumb.png

 

Man kan måske endda med fordel lave sammenlægningen vægtet så sub-pixels i pixel tæller mere end tilstødende. Fx 100% indenfor, 50% kant-tilstødende, 33% hjørne-tilstødende. (svarer nogenlunde til vægtning med reciprok afstand fra center af pixel til center as sub-pixel)

post-132057-1230812592_thumb.png

 

Jeg ved ikke hvordan det sker i praksis, men da ovenstående er ret banalt, kan jeg dårligt forestille mig at de ikke gør dette eller noget smartere, frem for rå binning med efterfølgende interpolation.

 

Fujifilm har fundet på en ny sensor, hvor de placerer de 2x2 subpixels i en særligt rhombisk mønster der er skiftevis spejlet langs skrå akser på en sådan måde at der altid ligger to røde og to blå subpixels ved siden af hinanden, og de grønne ligger i bånd.

http://www.akam.no/artikler/fujifilms_nye_...teknologi/56309

Det betyder at sub-pixel-par sidder i et klassisk kvadratisk 2x2 R-G-G-B mønster (eller RR-GG-GG-BB skulle man måske skrive)

Her kan man altså umiddelbart parre sub-pixels sammen to og to som med foveon, uden at smide lokationsinformation væk.

Man kan også vælge at se dette med negative øjne, og sige at man per design af sensor allerede har smidt noget af opløsningen væk på farveniveau...

 

Nu er det jo det kunne være vældig interessant at vide om der er nogle teoretiske begrænsninger der siger at pixelbinning IKKE vil give det vi ønsker. Og hvis der ikke er disse teoretiske begrænsninger da selvfølgelig også meget gerne nogle eksempler på om det virker i praksis.

 

Hvis det skal virke ud fra et rent teoretisk synspunkt, er det jo klart at det lysfølsomme areal ikke må være mindre.

HVIS de små bayer linser rent teoretisk sidder i et kantstødende cirkelmønster, og nødvendig elektronik er klemt ned mellem disse, så vil det lysfølsomme areal være uafhængigt af opløsningen (pi/4 eller cirka 4/5 af total-areal).

Men i praksis må det nok ventes at der er afstand mellem linserne, og derfor et lystab ved den højere opløsning alene af den grund. Medmindre afstanden reduceres sammen med pixelstørrelsen.

 

Når man sammenligner gamle sensorer med nye med højere opløsning er der en god sandsynlighed for at de nye grundet udviklingen af teknikken vil have mindre spildplads, og dermed dække en større andel af lysareal. Og måske endda også bedre linser og mere effektive sensorer. Så det vil gøre at sammenligningen let vil se ud som om binning er bedre end den er.

 

En fair sammenligning af binning vil derfor kræve at der findes sensorer lavet med nøjagtig samme teknologi, blot med forskellig opløsning. Så der er en udfordring der! :innocent::whistle:

 

Pyha for en masse tekst, mon nogen orker at læse alt det... :blush:

Endret av EskeRahn
Lenke til kommentar
Videoannonse
Annonse

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...