Gå til innhold

Hvilket kamera har de beste råfilene?


Anbefalte innlegg

.

.

Nettopp. Men hva blir resultatet på den A4-siden? Eller A3-siden? Hva ser best ut? Det er 1500kroners-spørsmålet.

Nedenstående bliver meget en gentagelse af hvad jeg har sagt en del gange ovenfor: Der FINDES ikke noget generelt entydigt svar på om et kamera giver bedre billeder end et andet. Det afhænger af situationen! (Dog med den tilføjelse af den ekstreme sammenligning mellem to kameraer, hvor det ene er bedre end det andet i ALLE situationer)

 

 

Den konkrette situation er jo (også) lidt at sammenligne æbler og pærer. Men selv hvis vi gør det så vil det visuelle indtryk ved oversampling afhænge af det software (inkl drivere) du bruger, der skal forsøge at 'opfinde' de manglende pixels til udskrift.

 

Om det bliver værre eller bedre end billedstøj på det finere opløste billede er der (heller) ikke noget entydigt ja-/nej-svar på.

Da det selvfølgeligt både afhænger af hvor meget støj der er i billedet og hvor god oversamplings-algoritmen er. Det er endda muligt at du kan lave et sammenligningseksempel hvor den ene er 'kønnere' set på kort afstand, men dårligere på lang. (Min teoretiske viden om øjets egenskaber til at udglatte mønstre og støj er lig nul, har kun den personlige erfaring, og har end aldrig eksperimenteret, så her skal vi have en øjen-kyndig på banen hvis det skal afklares)

 

Man kan selvfølgeligt tage det (teoretiske) ekstreme eksempel, hvor signalet fuldstændig drukner i støj på F100, men der stadig er en svag antydning af motiv fra F30. Her vil F30 selvfølgelig give 'bedre' billede. Men et så ringe billede er der næppe årsag til at ofre blæk og papir på i hverken A3 eller A4....

 

...Det entydige mål du søger er lidt som at lede efter "Cirkelens kvadratur", og jeg kan ikke se det leder nogle vegne at fortsætte diskussionen.

Lenke til kommentar
Videoannonse
Annonse
.

.

Nettopp. Men hva blir resultatet på den A4-siden? Eller A3-siden? Hva ser best ut? Det er 1500kroners-spørsmålet.

Nedenstående bliver meget en gentagelse af hvad jeg har sagt en del gange ovenfor: Der FINDES ikke noget generelt entydigt svar på om et kamera giver bedre billeder end et andet. Det afhænger af situationen! (Dog med den tilføjelse af den ekstreme sammenligning mellem to kameraer, hvor det ene er bedre end det andet i ALLE situationer)

La oss anta at du faktisk skal skrive ut i A4-formatet. La oss også anta at du skal ta bilde av en veldefinert scene. Da er det faktisk mulig å gjøre noen fornuftige målinger som sier noe/mye om kvaliteten for det konkrete tilfellet.

 

Dersom dette kan gjøres for en scene og en papirstørrelse så kan det også gjøre for 2, 3 og så videre. Da er det bare et spørsmål om hvor mange caser man har tid/råd til å ta for seg, og hvor representative de er for et reelt bruksmønster.

 

Når du repeterer at det ikke finnes entydige svar så høres det ut for meg som om du gjør deg vanskelig. At det ikke finnes entydige svar betyr ikke at det ikke finnes svar. Skal man unngå søken etter kunnskap fordi kunnskapen ikke kan forenkles til det banale?

 

 

All denne komplekse kunnskapen som vi søker skal i praksis ofte kokes ned til veldig komprimerte konklusjoner. "skal jeg kjøpe kameraet, eller skal jeg ikke det?" "skal jeg gi produktet terningkast 4 eller terningkast 5?". Dette er i sin natur over-forenklede framstillinger, men samtidig det som har størst praktisk betydning.

 

 

 

Jeg mener at når jeg skal avgjøre for meg selv "skal jeg bytte ut min 350D med en 50D" så bør støy-ytelse være en komponent i konklusjonen. Simpelten fordi støy er en faktor man må kjempe mot på den ene eller andre måten i mange (for meg) realistiske tilfeller. Det gir seg utslag i uønsket bruk av blits, uønsket bevegelses-uskarphet, uønsket korn, eller uønsket utsmøring i støyfjerning. En "pixel" er et abstrakt begrep som slutter å ha noen relevans idet bildet blir omsatt til papirform. Da er det et "bilde", og kan som sådan ha mer eller mindre gode subjektive kvaliteter. Jeg mener at støy relativt det ferdige bildet er et av de beste, enkle målene på dette aspektet av bildekvalitet, og at det er et langt bedre mål på "egnethet" enn det å måle/se på støy fra pixel til pixel.

 

-k

Lenke til kommentar
.

.

Når du repeterer at det ikke finnes entydige svar så høres det ut for meg som om du gjør deg vanskelig. At det ikke finnes entydige svar betyr ikke at det ikke finnes svar. Skal man unngå søken etter kunnskap fordi kunnskapen ikke kan forenkles til det banale?

.

.

*GG*

Vi bliver IKKE uenige om at til en KONKRET brug, vil man altid (næsten) objektivt kunne afgøre om et kamera er mere egnet end et andet.

 

Det jeg 'jamrer' over er at det bare ikke er det samme som at sige at det ene kamera GENERELT giver bedre billeder end det andet.

 

Man må kende sine PERSONLIGE behov, for at vide om det vil være godt eller skidt at erstatte sit kamera A med et nyt kamera B. Jvf min megen snak ovenfor om at det for de flestes brug nok bedre kamera F100, for mit brug er dårlige end F50.

 

Konkret påstand: For det brug hvor F100 er bedre end F50, der ville man nok være mere glad hvis man købte et Canon 870 (jvf akams mørketidtest for et par dages siden)

 

Men HVIS jeg fandt en klub af skøre nørder der tog nøjagtigt samme type billeder som jeg gør, ja så kunne vi helt sikkert blive enige om et fælles mål, hvor vi rangerer kameraer i forhold til hinanden.

Men en anden klub der tog en anden type billeder vil have et andet mål, og derfor en anden rangfølge.

 

Jeg render rundt med BÅDE et Ricoh R6 og et F60. NETOP fordi det ene kamera ikke generelt giver bedre billeder end det andet, men fordi det ene i NOGLE situationer giver bedre billeder, og det andet i ANDRE situation giver bedre billeder...

 

Jeg ved snart ikke hvordan jeg skal sige det her uden at gentage mig selv yderligere... Hmm... hvis vi nu diskutterede hvilket kamera der var 'mindst'. Så ville det måske for dig være afgørende hvor langt det er, og for mig hvor tykt det er, for jpsalvesen måske rumfanget.... Og så ville vi på analog vis få forskellig rangering af om et kamera er mindre end et andet... Størrelse kan altså på helt samme måde HELLER ikke med mening reduceres til ET enkelt mål, og dermed rangering.

Endret av EskeRahn
Lenke til kommentar
  • 3 uker senere...
....

Pixel-binning er vel nettopp det at man akkumulerer målinger før A/D-konverter

....

Jeg må vist æde noget af det jeg har skrevet I mig igen. :blush:

 

Sub-pixel-binning bør (i hvert fald teoretisk) kunne kompensere for mindre sub-pixels.

Sålænge det samlede areal af de sammenbundne pixels er det samme som den større sub-pixel, så bør den relative termiske støj være den samme.

Dette forudsætter 'blot' at den andel af de indkomne fotoner der rammer totalsensoren er det samme. Eller sagt på en anden måde at det totale spildareal mellem de enkelte sub-pixels er det samme. Altså at når opløsning bliver større og dermed pixels bliver mindre så skal hjælpekredløb også blive det, med samme faktor.

(og så selvfølgelig at effektivitet af sensor og andre faktorer er konstant)

 

Dette bekræfter så min empiriske opfattelse af at F50/F60 med 12Mpixel brugt i 6Mpixel mode ikke giver væsentligt ringere lysfølsomhed end F30 med 6Mpixel. (Sensor 6% mindre på hver led, og samme eller en anelse mere lysstærk optik i F30)

 

Så mit 'korstog' mod megapixel-ræs holder vist kun hvis man IKKE laver pixel-binning. :whistle:

Lenke til kommentar

Fundamentalt sett så er vel pixel-binning løsningen på alle problemer vedrørende megapixel-hysteri.

 

I praksis så begrenses vel dette av at:

1) Det er få kamera som tilbyr kamera med "ekte" binning

2) "fill raten" reduseres vel når sensoroppløsningen økes, så en 12-megapixel sensor på 35mm greier ikke å registrere fullt så mange fotoner som en 6 megapixel sensor på 35 mm.

3) Bayer-sensorer registrer intensitet og farge med en enkelt 2d sensor. Det er ikke bare-bare å endre romlig oppløsning.

 

Det hadde vært interessant å sett en teoretisk og målt sammenligning av "ekte" pixelbinning kontra rent digital nedskalering/"binning"/støyfjerning med tap av detaljer.

 

-k

Lenke til kommentar
Fundamentalt sett så er vel pixel-binning løsningen på alle problemer vedrørende megapixel-hysteri.

 

I praksis så begrenses vel dette av at:

1) Det er få kamera som tilbyr kamera med "ekte" binning

2) "fill raten" reduseres vel når sensoroppløsningen økes, så en 12-megapixel sensor på 35mm greier ikke å registrere fullt så mange fotoner som en 6 megapixel sensor på 35 mm.

3) Bayer-sensorer registrer intensitet og farge med en enkelt 2d sensor. Det er ikke bare-bare å endre romlig oppløsning.

 

Det hadde vært interessant å sett en teoretisk og målt sammenligning av "ekte" pixelbinning kontra rent digital nedskalering/"binning"/støyfjerning med tap av detaljer.

 

-k

ad 2) "Fill raten" BEHØVER vel ikke ikke reduceres med pixelstørrelsen? HVIS teknikken følger med så 'spildpladsen' reduceres tilsvarende, SÅ er det vel samme "fill rate"?

Men det er klart hvis de er lavet med samme teknik, så er der mest spild med mindst pixel.

 

ad 3) bayer. Så bliver det vel bare BEDRE med mange mindre subpixels til at 'bygge' en pixel end 'bare' de vanlige R-G-G-B i 2x2? Det bliver selvfølgelig mere komplekst, men burde da give bedre eller worst case same billed-fejl, eller er der noget jeg overser her?

 

Jeg er ikke i stand til at overskue om det betyder noget om pixel-binning sker direkte i sensor, eller om det kan ske efter udlæsning - sålænge det sker inden en evt kompression (fx jpeg), er jeg ikke sikker på at et gør en forskel. Kan nogle be- eller afkræfte dette?

 

Og ja, det kunne afgjort være vældigt interessant at få nogle målinger på. Var det mon noget for Akam at lege med nogle af deres standardiserede test opstillinger? hint hint... :whistle:

Man kunne jo gå helt i ekstremer og se på et helt enfarvet billede med meget veldefineret belysning, og så prøve at lave pixel-binning helt ned til MEGET lave opløsninger og pudse måleudstyr på resultaterne... Please... :innocent:

Lenke til kommentar

2) "fill raten" reduseres vel når sensoroppløsningen økes, så en 12-megapixel sensor på 35mm greier ikke å registrere fullt så mange fotoner som en 6 megapixel sensor på 35 mm.

ad 2) "Fill raten" BEHØVER vel ikke ikke reduceres med pixelstørrelsen? HVIS teknikken følger med så 'spildpladsen' reduceres tilsvarende, SÅ er det vel samme "fill rate"?

Men det er klart hvis de er lavet med samme teknik, så er der mest spild med mindst pixel.

Jeg er ingen ekspert på sensor-teknologi. Men dersom hver enkelt pixel får en "dødsone" rundt seg hvor fotoner går til spille, og bredden av denne dødsonen er uavhengig av pixelstørrelse, så vil en større andel av sensorens total-areal gå til spille, jo større oppløsning man har.

 

Det er vel dette man søker å kompensere for med mikrolinser og annen snacks.

 

Dersom en produsent allerede har tøyd grensene for hva som er fysisk mulig med dagens teknologi for å oppnå et høyt pixel-antall, så er det rimelig å anta at det i noen grad går utover totalt antall høstede fotoner, og at samme produsent eller konkurenter som har tilgang på tilsvarende teknologi kan/kunne ha lansert en sensor med lavere oppløsning og litt høyere totalt antall fotoner.

 

Hvorvidt denne faktoren er 1% eller 50% med faktisk tilgjengelige sensorer i 2008/2009 har jeg ingen formening om, og det vil avgjøre hvorvidt dette er semihypotetisk flisespikkeri eller en god grunn til å irritere seg over megapixelhysteriet. Grunnen til at jeg tar det opp er at dette er (såvidt jeg forstår) et argument mot det å lansere kamera med veldig stor oppløsning/små pixels og pixelbinning.

 

Jeg liker å dra eksemplene mine langt:

Gitt en sensor med en gitt geometrisk størrelse (f.eks 1.6x crop, FF eller mobiltelefon-sensor) i en gitt setting (dvs med gitt optikk, lukketid, scene). Dersom en 100megapixel-variant totalt sett kunne fange opp omtrent like mange fotoner som en 3 megapixel-variant under like betingelser, så ville 100megapixel-sensoren sammen med en tenkt ideell binning-teknologi gi bedre fleksibilitet til å velge mellom god støy-ytelse eller god oppløsning, eller noe midt i mellom. 3 megapixel-sensoren ville til sammenligning ikke gi deg det samme valget, og du ville bare få god støy-ytelse. De fleste fotografer jobber med forskjellige typer scener og jeg vil tro at alle foretrekker fleksibilitet dersom den ikke medfører kompromisser å snakke om.

3) Bayer-sensorer registrer intensitet og farge med en enkelt 2d sensor. Det er ikke bare-bare å endre romlig oppløsning.

ad 3) bayer. Så bliver det vel bare BEDRE med mange mindre subpixels til at 'bygge' en pixel end 'bare' de vanlige R-G-G-B i 2x2? Det bliver selvfølgelig mere komplekst, men burde da give bedre eller worst case same billed-fejl, eller er der noget jeg overser her?

 

Jeg er ikke i stand til at overskue om det betyder noget om pixel-binning sker direkte i sensor, eller om det kan ske efter udlæsning - sålænge det sker inden en evt kompression (fx jpeg), er jeg ikke sikker på at et gør en forskel.

Pixel-binning bør fra et SNR/støy-ståsted skje så nært fotonene som mulig, slik at resten av kjeden får et "normalisert" signal å utføre sine operasjoner på. En A/D-konverter fungerer f.eks nesten alltid best dersom inngangssignalet er rett under klippegrensen.

 

Dette betyr at man må midle ladningen til nabo-celler på enkelt, analogt vis.

 

De-bayer foregår gjerne med avansert digital filtrering som tar høyde for at bayer sampler både intensitet og bølgelengde med en enkelt sensor, og prøver å gjøre mest mulig ut av det man har.

 

Dette er to motstridende behov: både ønsker man å prosessere så nært sensor som mulig (signalmessig, ikke nødvendigvis geometrisk), og man ønsker å prosessere sent i kjeden for å nyttiggjøre seg avanserte digitale prosessorer.

 

http://www.dpreview.com/news/0809/08092210fujifilmEXR.asp

 

On the other hand, a low-noise signal can be obtained by pixel binning. However, the conventional approach to binning (along the horizontal and vertical axis) generates false colors because of the separation of pixels of the same color. Because it is necessary to suppress this phenomenon, the result is a significant drop in sharpness.

Det er lett å se hvordan binning skal fungere for en sort-hvit sensor, og for en Foveon-sensor. Det er ikke like lett å se hvordan det bør fungere for en Bayer-sensor. Dersom man midler over svært mange pixler så vil selvsagt effekten av mosaicing avta.

 

350px-Bayer_pattern_on_sensor.svg.png

 

Dersom man har som mål å redusere med en faktor 1/4 i høyde og bredde (dvs å gjøre en 16 megapixel sensor om til 1 megapixel bildefil), så kan man midle 2x2 røde, 2x2 blå og 8 grønne pixler. For høyoppløste sensorer som den i Canons 50D så kan kanskje det være interessant for å redde bilder som ellers ville være umulig.

 

Og ja, det kunne afgjort være vældigt interessant at få nogle målinger på. Var det mon noget for Akam at lege med nogle af deres standardiserede test opstillinger? hint hint... :whistle:

Man kunne jo gå helt i ekstremer og se på et helt enfarvet billede med meget veldefineret belysning, og så prøve at lave pixel-binning helt ned til MEGET lave opløsninger og pudse måleudstyr på resultaterne... Please... :innocent:

Endret av knutinh
Lenke til kommentar

På en monokrom eller foveon-sensor er pikselbinning helt klart en interessant løsning for å gi økt fleksibilitet. På Bayer-sensorer oppnår man neppe mer enn man kan gjøre med nedskalering i etterbehandling.

 

Jeg er ingen ekspert på sensor-teknologi. Men dersom hver enkelt pixel får en "dødsone" rundt seg hvor fotoner går til spille, og bredden av denne dødsonen er uavhengig av pixelstørrelse, så vil en større andel av sensorens total-areal gå til spille, jo større oppløsning man har.

 

Det er vel dette man søker å kompensere for med mikrolinser og annen snacks.

Selv om man klarer å bedre mengden fotoner som treffer den fotosensitive flaten ved hjelp av mikrolinser som dekker over det ubrukte arealet, så kan økt oppløsning gå ut over andre egenskaper. Spesielt dynamisk omfang.

 

En liten fotodiode med en stor mikrolinse vil få relativt sett høyere lysintensitet enn en større fotodiode med en relativt sett mindre mikrolinse. Samtidig har den mindre elektronbrønn i forhold til lysintensiteten slik at den blir raskere "fylt opp". Hva det resulterer i er at flere små fotodioder kan samle inn mindre lys før de når maksimal ladning enn en stor fotodiode med samme linseflate.

Lenke til kommentar

Binning er vanligvis nevnt ifbm CCD. Jeg regner med at det er så sensor-spesifikt at CCD og CMOS blir to forskjellige ting i denne sammenheng?

 

Dersom hver enkelt pixel får et mindre areal, og mottar færre fotoner, og har mindre brønn, og alt dette skalerer proporsjonalt 1:1, så kan jeg ikke se at dynamisk område nødvendigvis reduseres? Den totale ladningen som (f.eks) 2x2 pixel kan tenkes å registrere er derimot større enn hva en enkelt pixel kan tenkes å registrere for en gitt sensor, derfor vil man kanskje dimensjonere skiftregistre (og forsterkere og A/D-konvertere) forskjellig for en "binning-optimalisert" sensor, kontra en vanlig sensor. Jeg mener at artikkelen under underbygger dette.

 

Ting jeg ikke forstår fullt ut:

1. Jeg forstår at ting har en tendens til å skalere bortimot lineært (innenfor gitte grenser). Jeg forstår ikke helt hva som hindrer en sensor-produsent fra å lage en sensor med små pixler, men større brønnstørrelse. Har vi ikke en tredje dimensjon?

2. Hva er skillet mellom skift-registre og foto-dioder i dette eksempelet. Må ladningen fra to eller flere fotodioder summeres inn i registre med samme kapasitet som diodene selv, eller kan summeringsnodene spesifiseres helt uavhengig av de lysregistrerende komponentene?

 

 

http://micro.magnet.fsu.edu/primer/digital...ts/binning.html

 

pixelbinningfigure1.jpg

To help illustrate the pixel binning process, refer to Figure 1, which reviews an example of 2 x 2 binning. A schematic drawing of a 4 x 4 parallel shift register pixel array is illustrated in Figure 1(a), along with a four-gate serial shift register and summing pixel or well (also termed an output node). Illuminating photons impact the CCD photodiodes, creating a pool of electrons that accumulates in each pixel, shown in Figure 1(b) as a cluster of four blue-shaded squares in the upper right hand corner of the parallel shift register. The number of electrons that each pixel can accommodate is termed the well depth and ranges from about 30,000 to 350,000, depending upon the CCD specifications. Dynamic range of a CCD is directly proportional to the well depth. Incident light levels and exposure time determine the number of electrons collected at each photogate or pixel site. After exposure of the CCD to one illumination cycle is completed, the electrons are transferred through the parallel and serial shift registers to a output amplifier and then digitized by an analog-to-digital (A/D) converter circuit. Binning can be used to increase focusing accuracy by reducing the time necessary for image acquisition, while providing greater sensitivity to lower out-of-focus light levels.

 

To illustrate this process, Figure 1(b) shows each integrated pixel in the parallel register stepping by an increment of one gate to yield the arrangement shown in Figure 1©. Here, the electrons from two pixels remain in the parallel shift register, while those from the other two have been transferred to the serial shift register. Another step (Figure 1©), shifts the remaining electrons in the parallel shift register to fill the adjacent gate elements in the serial register (Figure 1(d)). The final steps involve shifting of charge from the serial register, two pixels at a time, to the summing pixel (Figure 1(d) and (e)). Figure 1(f) illustrates the combined charge of four pixels in the summing well awaiting transfer to the output amplifier, where the signal will be converted to a voltage and then transferred to other integrated circuits for further amplification and digitization. The process continues until the entire array has been read out. In this example, the area of four adjacent pixels has been combined into one larger pixel, sometimes referred to as a super pixel. The signal-to-noise ratio has been increased by a factor of four, but the image resolution is cut by 50 percent.

 

The process continues until the entire array has been read out. In this example, the area of four adjacent pixels has been combined into one larger pixel, sometimes referred to as a super pixel. The signal-to-noise ratio has been increased by a factor of four, but the image resolution is cut by 50 percent.

...

in the binning mode, both the serial shift register and output node will accumulate a significantly larger charge than in normal operation and must contain sufficient electron charge capacity to prevent saturation. Typical CCD serial registers have twice the charge capacity as the parallel registers, and the output nodes usually contain 50- to 100-percent more charge capacity than do the shift registers

...

The primary benefit of pixel binning is to improve the signal-to-noise ratio in low light conditions at the expense of spatial resolution. Summation of many charge packets reduces the read noise level and produces an improvement in signal equal to the binning factor (4x in the example above).

Endret av knutinh
Lenke til kommentar
På en monokrom eller foveon-sensor er pikselbinning helt klart en interessant løsning for å gi økt fleksibilitet. På Bayer-sensorer oppnår man neppe mer enn man kan gjøre med nedskalering i etterbehandling.

 

For den som tror nedskalering er en god løsning til å fjerne støy i bildet kan jeg anbefale denne artikkelen: http://blog.dpreview.com/editorial/2008/11...ampling-to.html

 

Konklusjonen er ganske enkel, det fungerer svært dårlig! Grunn: Støyen er ikke tilfeldig plasert i bildet og er sjelden eksakt en pixel stor.

Lenke til kommentar
På en monokrom eller foveon-sensor er pikselbinning helt klart en interessant løsning for å gi økt fleksibilitet. På Bayer-sensorer oppnår man neppe mer enn man kan gjøre med nedskalering i etterbehandling.

 

For den som tror nedskalering er en god løsning til å fjerne støy i bildet kan jeg anbefale denne artikkelen: http://blog.dpreview.com/editorial/2008/11...ampling-to.html

 

Konklusjonen er ganske enkel, det fungerer svært dårlig! Grunn: Støyen er ikke tilfeldig plasert i bildet og er sjelden eksakt en pixel stor.

Takk for en interessant link.

 

Jeg tror at den som lager demosaicing-algoritmen har et bedre utgangspunkt for å generere nedskalerte oppløsninger direkte, enn den som må jobbe med et ferdig-interpolert bilde?

 

Er det noen av nedskaleringene som er brukt i den testen som tilsvarer større pixler (dvs NxM midling)? "Oppskarpende" nedskalering er relativt uinteressant i denne sammenehngen.

 

Det ville ha vært interessant om de også sammenlignet med "state of the art" støyfjerning og tillot tap av detaljer.

 

-k

Endret av knutinh
Lenke til kommentar
Dersom hver enkelt pixel får et mindre areal, og mottar færre fotoner, og har mindre brønn, og alt dette skalerer proporsjonalt 1:1, så kan jeg ikke se at dynamisk område nødvendigvis reduseres? Den totale ladningen som (f.eks) 2x2 pixel kan tenkes å registrere er derimot større enn hva en enkelt pixel kan tenkes å registrere for en gitt sensor, derfor vil man kanskje dimensjonere skiftregistre (og forsterkere og A/D-konvertere) forskjellig for en "binning-optimalisert" sensor, kontra en vanlig sensor. Jeg mener at artikkelen under underbygger dette.
Hvis alt skalerte lineært ville du hatt rett, men det gjør ikke det.

 

Grovt regnet så er størrelsen på elektronbrønnen proporsjonal med arealet av den fotosensitive flaten (for en gitt teknologi). Arealet av kretsbanene (og dermed det ikke-følsomme området) følger ikke det samme proporsjonalitetsforholdet når du kommer under en viss størrelse. Akkurat hvor grensene går avhenger av produksjonsprosessen, og flyttes hele tiden. Men for en gitt litografiprosess er det en minste bredde på kretsbanene og en minste størrelse på transistorene som man rett og slett ikke kommer under. Så jo mindre fotodioden blir, jo større blir det "ubrukelige" arealet i forhold.

 

Ting jeg ikke forstår fullt ut:

1. Jeg forstår at ting har en tendens til å skalere bortimot lineært (innenfor gitte grenser). Jeg forstår ikke helt hva som hindrer en sensor-produsent fra å lage en sensor med små pixler, men større brønnstørrelse. Har vi ikke en tredje dimensjon?

Tja. Det vil i så fall kreve et tykkere substrat i hvert fall, noe som ikke nødvendigvis passer inn i eksisterende litografiprosesser. Og jeg er heller ikke helt sikker på om det vil hjelpe men jeg kjenner ikke så godt til halvlederfysikk at jeg kan uttale meg skråsikkert. Det kommer jo an på hvordan ladningene faktisk fordeler seg i tre dimensjoner og den fysiske formen på det elektriske feltet som oppstår.

 

2. Hva er skillet mellom skift-registre og foto-dioder i dette eksempelet. Må ladningen fra to eller flere fotodioder summeres inn i registre med samme kapasitet som diodene selv, eller kan summeringsnodene spesifiseres helt uavhengig av de lysregistrerende komponentene?
Det eksempelet ser ut til å hoppe over hele AD-omformingen. Fotodiodene leverer jo bare en utgangsspenning som diskretiseres av AD-omformeren. Skift-registere (og all annen digital signalbehandling) kommer etterpå. Endret av Sutekh
Lenke til kommentar
Dersom hver enkelt pixel får et mindre areal, og mottar færre fotoner, og har mindre brønn, og alt dette skalerer proporsjonalt 1:1, så kan jeg ikke se at dynamisk område nødvendigvis reduseres? Den totale ladningen som (f.eks) 2x2 pixel kan tenkes å registrere er derimot større enn hva en enkelt pixel kan tenkes å registrere for en gitt sensor, derfor vil man kanskje dimensjonere skiftregistre (og forsterkere og A/D-konvertere) forskjellig for en "binning-optimalisert" sensor, kontra en vanlig sensor. Jeg mener at artikkelen under underbygger dette.
Hvis alt skalerte lineært ville du hatt rett, men det gjør ikke det.

 

Grovt regnet så er størrelsen på elektronbrønnen proporsjonal med arealet av den fotosensitive flaten (for en gitt teknologi). Arealet av kretsbanene (og dermed det ikke-følsomme området) følger ikke det samme proporsjonalitetsforholdet når du kommer under en viss størrelse. Akkurat hvor grensene går avhenger av produksjonsprosessen, og flyttes hele tiden. Men for en gitt litografiprosess er det en minste bredde på kretsbanene og en minste størrelse på transistorene som man rett og slett ikke kommer under. Så jo mindre fotodioden blir, jo større blir det "ubrukelige" arealet i forhold.

 

Og da er vi vel tilbake til det jeg sa for et par dager siden:

2) "fill raten" reduseres vel når sensoroppløsningen økes, så en 12-megapixel sensor på 35mm greier ikke å registrere fullt så mange fotoner som en 6 megapixel sensor på 35 mm.

Hvorvidt denne faktoren er 1% eller 50% med faktisk tilgjengelige sensorer i 2008/2009 har jeg ingen formening om, og det vil avgjøre hvorvidt dette er semihypotetisk flisespikkeri eller en god grunn til å irritere seg over megapixelhysteriet. Grunnen til at jeg tar det opp er at dette er (såvidt jeg forstår) et argument mot det å lansere kamera med veldig stor oppløsning/små pixels og pixelbinning.

 

Det viktige for denne evige diskusjonen er etter min mening at vi nå snakker om teknologi-spesifikke begrensninger, og ikke (nødvendigvis) fundamentale fysikalske begrensninger.

 

Dersom man "forbanner" Canon & Co for å ofre bildekvalitet for å tilfredsstille ukyndige Elkjøp-kunder som shopper kamera bare ut fra antall pixler, så må man knytte det opp til at dagens produksjonsteknologi gir et signifikant ekstra-tap mhp støy/SNR/dynamikk når man reduserer pixelstørrelsen fra X til Y som ikke kan kompenseres ved å bruke pixel binning, nedskalering eller støyfjerning som som bi-effekt reduserer detaljene til omlag nivå X.

 

Jeg forstår det slik at mange lar seg irritere over små pixel generelt basert på en generell forståelse av shot-noise og overbevisning om at så lenge hver pixel er liten så vil SNR og dynamisk område med nødvendighet bli dårlig. Jeg mener at diskusjonen viser at det er rom for tvil rundt en slik "regel".

 

Jeg vet at mange har betydelig mer (og forskjellig) praktisk erfaring fra meg selv, og jeg har respekt for deres innspill og meninger. Det er sannsynligvis mer relevant og håndfast for den jevne leser å få høre at folk f.eks er jevnt over mer fornøyd med kamera med store pixler enn små pixler. For noen av oss så er det imidlertid også interessant å vite hvorfor, og om dette er en fundamental fysisk kobling, eller om det er mer eller mindre tilfeldige og/eller midlertidige menneskeskapte avhengigheter som danner grunnlaget for en slik observasjon.

 

-k

Endret av knutinh
Lenke til kommentar
2. Hva er skillet mellom skift-registre og foto-dioder i dette eksempelet. Må ladningen fra to eller flere fotodioder summeres inn i registre med samme kapasitet som diodene selv, eller kan summeringsnodene spesifiseres helt uavhengig av de lysregistrerende komponentene?
Det eksempelet ser ut til å hoppe over hele AD-omformingen. Fotodiodene leverer jo bare en utgangsspenning som diskretiseres av AD-omformeren. Skift-registere (og all annen digital signalbehandling) kommer etterpå.

Merk at eksempelet er for CCD, ikke CMOS.

 

Jeg forstår det slik at det er snakk om analoge men tidsdiskrete ladningsbærere, altså kapasitans.

 

http://209.85.129.132/search?q=cache:h3b6m...;cd=1&gl=no

http://en.wikipedia.org/wiki/Bucket-brigade_device

 

A/D-omformingen er nevnt i artikkelen:

After exposure of the CCD to one illumination cycle is completed, the electrons are transferred through the parallel and serial shift registers to a output amplifier and then digitized by an analog-to-digital (A/D) converter circuit

 

Spørsmålet er fremdeles hvordan ladningene "egentlig" summeres i det analoge domenet, og hvor fritt designeren står til å velge store maksimale summer som gjør at en sensor med små pixler blir i stand til å gi stort dynamisk område ved binning. Dersom summasjonsnodene kan gjøres "store" så er vi tilbake til at en høyoppløst sensor kan gi samme støy og dynamisk område som en lavoppløst sensor så lenge man (idealisert) greier å omsette alle innfallende fotoner til akkumulerte elektroner.

 

Jeg er fullt klar over at idealet ikke er det samme som praksis, men dersom det hele koker ned til:

1) Hvor mange fotoner går tapt over hele sensor-arealet som funksjon av en reduksjon i pixel-størrelse? (endring i støy)

2) Hvor mange fulle brønner kan summeres uten klipping før det går utover andre deler av designet (endring i max signal)

 

Så har jeg en modell som gir meg bedre oversikt over problemet enn det jeg har oppnådd ved utallige diskuksjoner om temaet.

 

-k

Endret av knutinh
Lenke til kommentar
Det viktige for denne evige diskusjonen er etter min mening at vi nå snakker om teknologi-spesifikke begrensninger, og ikke (nødvendigvis) fundamentale fysikalske begrensninger.
Mnja. Man begynner nok å nærme seg punktet hvor forbedret teknologi ikke lenger klarer å kompensere for økt oppløsning. Og så er det jo spørsmålet hva man kan oppnå hvis man tar den nyeste teknologien og ikke går for økt oppløsning. Jeg vil jo si Nikon har bevist ganske grundig hva som kan oppnås mtp. dynamisk omfang og støyytelse med en moderne, lavoppløst sensor i D3 og D700.

 

Jeg forstår det slik at mange lar seg irritere over små pixel generelt basert på en generell forståelse av shot-noise og overbevisning om at så lenge hver pixel er liten så vil SNR og dynamisk område med nødvendighet bli dårlig. Jeg mener at diskusjonen viser at det er rom for tvil rundt en slik "regel".
Tja. For meg er det mer et spørsmål om hva som er hensiktsmessig og nødvendig. Når man begynner å nå grenser for hva optikken kan gjengi så er det meningsløst å fylle opp harddiskplass med større bildefiler som ikke i praksis gjengir mer detaljer. Da kan teknologiske fremskritt heller fokuseres på andre områder.
Lenke til kommentar
Merk at eksempelet er for CCD, ikke CMOS.

 

Jeg forstår det slik at det er snakk om analoge men tidsdiskrete ladningsbærere, altså kapasitans.

 

http://209.85.129.132/search?q=cache:h3b6m...;cd=1&gl=no

http://en.wikipedia.org/wiki/Bucket-brigade_device

 

A/D-omformingen er nevnt i artikkelen:

After exposure of the CCD to one illumination cycle is completed, the electrons are transferred through the parallel and serial shift registers to a output amplifier and then digitized by an analog-to-digital (A/D) converter circuit

 

Spørsmålet er fremdeles hvordan ladningene "egentlig" summeres i det analoge domenet, og hvor fritt designeren står til å velge store maksimale summer som gjør at en sensor med små pixler blir i stand til å gi stort dynamisk område ved binning. Dersom summasjonsnodene kan gjøres "store" så er vi tilbake til at en høyoppløst sensor kan gi samme støy og dynamisk område som en lavoppløst sensor så lenge man greier å omsette alle innfallende fotoner til akkumulerte elektroner.

 

-k

Hm. Bruken av ordet "register" i analog sammenheng blir litt rar for min del. Men det kan godt være det er korrekt, bare gammeldags. For meg er "register" en lagringsenhet for diskretiserte data.

 

Anyway: summering i analogt domene er ikke noe problem. En summasjonsforsterker er en relativt enkel operasjonsforsterkerkrets som har en utgangsspenning lik en skalert sum av ingangsspenningene.

Lenke til kommentar
Det viktige for denne evige diskusjonen er etter min mening at vi nå snakker om teknologi-spesifikke begrensninger, og ikke (nødvendigvis) fundamentale fysikalske begrensninger.
Mnja. Man begynner nok å nærme seg punktet hvor forbedret teknologi ikke lenger klarer å kompensere for økt oppløsning. Og så er det jo spørsmålet hva man kan oppnå hvis man tar den nyeste teknologien og ikke går for økt oppløsning. Jeg vil jo si Nikon har bevist ganske grundig hva som kan oppnås mtp. dynamisk omfang og støyytelse med en moderne, lavoppløst sensor i D3 og D700.

Hvorfor har da Canon 50D i følge akam bedre dynamisk omfang ved høy ISO enn D300? Ved å bruke din logikk så er det "et ganske grundig bevis" på at små pixler gir bedre dynamisk omfang ved høy iso?

dr_lq.png

 

(det jeg vil fram til er at det er for mange ukjente i praktiske kamera til at vi kan slutte noen lovmessigheter om tradeoff råsensoren de baserer seg på)

 

Halvleder-vitere har stadig hevdet at "nå nærmer vi oss grenser for det som er fysisk mulig". Industrien har stadig funnet nye kreative måter å strekke strikken lengre. Å hevde at "nå kan ikke transistorer krympes lengre" er på mange måter en risiko-sport.

 

Den grunnleggende informasjonsbegrensningen som ligger i et foton er det dog ingen (?) som kan rokke ved. Så lenge belysningen av scenen, optikken og sensorens total-areal er av en beskaffenhet som gir oss et totalt antall X fotoner, så er det fundamentalt begrenset hva vi kan gjøre med dem: vi kan telle dem, finne ut hvor på sensoren de er plassert, og finne bølgelengden. Men vi kan ikke si noe sikkert om "hvor mange fotoner ville det ha vært mellom disse to fotonene dersom scenen hadde vært bedre belyst?"

 

Den beste sensoren man (dvs jeg) kan tenke seg greier å feilfritt lokalisere hvor alle innfallende fotoner treffer sensoren, og hvilken bølgelengde de har. Dersom kvantemekanikk i det hele tatt tillater en slik måling, og vår teknologi noensinne kommer på et slik nivå, så kan man konvertere informasjonen til bilder med varierende romlig og dynamisk oppløsning.

Jeg forstår det slik at mange lar seg irritere over små pixel generelt basert på en generell forståelse av shot-noise og overbevisning om at så lenge hver pixel er liten så vil SNR og dynamisk område med nødvendighet bli dårlig. Jeg mener at diskusjonen viser at det er rom for tvil rundt en slik "regel".
Tja. For meg er det mer et spørsmål om hva som er hensiktsmessig og nødvendig. Når man begynner å nå grenser for hva optikken kan gjengi så er det meningsløst å fylle opp harddiskplass med større bildefiler som ikke i praksis gjengir mer detaljer. Da kan teknologiske fremskritt heller fokuseres på andre områder.

Det er en litt annen diskusjon. Etterhvert som lagringsplass uunngåelig blir større og billigere så vil det som fortoner seg som en unødvendig sløsing med plass, etterhvert bli helt likegyldig.

 

"er det egentlig noe å tjene på mer oppløsning?" er et annet spørsmål enn "kunne jeg ha fått bedre bilder om Canikon hadde hatt _færre_ pixler?"

 

-k

Endret av knutinh
Lenke til kommentar
Hm. Bruken av ordet "register" i analog sammenheng blir litt rar for min del. Men det kan godt være det er korrekt, bare gammeldags. For meg er "register" en lagringsenhet for diskretiserte data.

 

Anyway: summering i analogt domene er ikke noe problem. En summasjonsforsterker er en relativt enkel operasjonsforsterkerkrets som har en utgangsspenning lik en skalert sum av ingangsspenningene.

Analoge forsterker kan dog ikke gi uendelig store spenninger ut, og analoge kondensatorer kan vel ikke holde på uendelig store spenninger.

 

Tvert imot så er det ofte slik at det å dimensjonere for veldig store verdier gir kompromisser for veldig små verdier.

 

Spørsmålet jeg stilte meg når jeg leste artikkelen var hvorvidt en sensor med infrastruktur som er optimalisert for avlesning av en og en pixel, også kan fungere bra eller "optimalt" dersom man benytter den til pixel binning, eller hvorvidt dette er to måter å bruke en sensor på som medfører kompromisser for hverandre (eller høyere pris).

 

-k

Lenke til kommentar
Hvorfor har da Canon 50D i følge akam bedre dynamisk omfang ved høy ISO enn D700? Ved å bruke din logikk så er det "et ganske grundig bevis" på at små pixler gir bedre dynamisk omfang ved høy iso?

dr_lq.png

 

(det jeg vil fram til er at det er for mange ukjente i praktiske kamera til at vi kan slutte noen lovmessigheter om tradeoff råsensoren de baserer seg på)

Akkurat hvordan Akam har kommet til det resultatet vet jeg ikke, for i følge DXOmark er D700 mer eller mindre konsekvent ett stopp bedre enn 50D over hele fjøla. Jeg mistenker at Akam har tatt utgangspunkt i jpeg, siden D700 har blitt kritisert for å ha en litt vel bratt defaultkurve som gir dårlig utnyttelse av sensorens dynamiske omfang.

 

Edit: Øh, jeg så egentlig ikke skikkelig på figuren før nå. Du har fått med deg at det står D300 og ikke 700 på tegnforklaringen?

 

Halvleder-vitere har stadig hevdet at "nå nærmer vi oss grenser for det som er fysisk mulig". Industrien har stadig funnet nye kreative måter å strekke strikken lengre. Å hevde at "nå kan ikke transistorer krympes lengre" er på mange måter en risiko-sport.
Det er flere faktorer som spiller inn her. Det ene er hva som er fysisk mulig å produsere, og der har man kommet opp med et par tricks som gjør det mulig å krympe kretsene utover det konvensjonell visdom skulle si var mulig med fotolitografiprosesser. Det andre er hvor små kretser som faktisk fungerer før fenomener som kvantetunnellering begynner å gjøre dem upålitelige. Hvor grensen for hva som faktisk vil fungere ligger er ikke helt sikkert, jeg har hørt tall fra 8 til 13 nm prosess som den nedre grensen. Da blir kretsbanene så små at du ikke lenger kan regne med at elektronene går dit du forventer at de skal gå (jævla Heisenberg...).

 

Men det er nok et stykke igjen til man når den problemstillingen med bildesensorer. Foreløpig er spørsmålet mer om hva man kan produsere med den teknologien sensorprodusentene har råd til å benytte seg av.

 

Det er en litt annen diskusjon. Etterhvert som lagringsplass uunngåelig blir større og billigere så vil det som fortoner seg som en unødvendig sløsing med plass, etterhvert bli helt likegyldig.
Ikke hvis filstørrelsen vokser i samme takt som prisen på lagringsplass går ned :p Endret av Sutekh
Lenke til kommentar
Analoge forsterker kan dog ikke gi uendelig store spenninger ut, og analoge kondensatorer kan vel ikke holde på uendelig store spenninger.
Utgangsspenningen til en analog forsterkerkrets er stort sett begrenset til ± forsyningsspenningen (som er en konstant likespenning, ikke det samme som inngangsspenningen). Og i prinsippet er det ikke noe i veien for å designe en krets som kan veksle mellom å gi ut "K*V1" og "(K/2)*(V1+V2)", som gir samme min- og maksgrense. Men nå er jeg mest vant til å jobbe med sånne kretser når de er bygget opp av diskrete komponenter loddet fast på et veroboard, så hvor lett det er å gjøre i en IC skal jeg ikke uttale meg om. En annen ting å tenke på er jo at når du først ønsker å benytte deg av pikselbinning så er det nettopp fordi du har få elektroner å jobbe med til å begynne med. Selv om du summerer sammen signaler så er neppe maksgrensen til forsterkerkretsen noe problem (m.a.o. du kan godt klare deg med "K*(V1+V2)".

 

Spørsmålet jeg stilte meg når jeg leste artikkelen var hvorvidt en sensor med infrastruktur som er optimalisert for avlesning av en og en pixel, også kan fungere bra eller "optimalt" dersom man benytter den til pixel binning, eller hvorvidt dette er to måter å bruke en sensor på som medfører kompromisser for hverandre (eller høyere pris).
Tja. Du må konstruere en litt mer komplisert analog forsterkerkrets, men jeg tviler på at det vil ha signifikant påvirkning på den totale prisen. Jeg tror heller ikke det er noe merkbart kvalitetstap.

 

Jeg står ved at det største problemet med pikselbinning er dårligere detaljgjengivelse som følge av avstanden mellom fotodioder med samme filterfarge.

Lenke til kommentar
×
×
  • Opprett ny...