Gå til innhold

[Løst] MP/Sensor/Crop diskusjon. Canon vs Nikon


Anbefalte innlegg

Jeg vil påstå at du har et for naivt forhold til markedskreftene. Hvis du tror at 5DIII er det beste Canon ingeniørene kan få til så har du ikke forstått hvordan Japansk markedstrategi foregår. Du får bare det siste og det beste unntagshvis. I de fleste tilfellene så får du bare det toppledelsen tror at du vil være akkurat sånn passe fornøyd med så du kjøper produktet. Men er akkurat sånn passe missfornøyd så du kjøper deg neste modell når den kommer.

 

Canon kunne laget fantastisk mye bedre kameraer hvis de bare kombinerte alle funksjonene og kvalitetene fra alle modellene i ett kamera.

Jeg tror du har et litt for naivt forhold til markedskreftene hvis du tror de kan forandre fysikken.

 

Det er en stor mengde produsenter av CMOS sensorer i verden. Noen gjør det bedre enn andre. Canon viste frem 50Mpx APS-C i 2007 og 120Mpx APS-H i 2010. Tror du virkelig det de putter i DSLR er deres siste og beste. Først skal de selge den beste teknologien til det militære og medisinsk industri til veldig høy pris. Når de får neste oppgradering så får vi kanskje "smake litt" på hva de har hatt i 5-10 år. Hva slags sensor tror du sitter i Predator dronene? Siste jeg hørte om det var 1.8 Gigapixel. Hvor tror du den teknologien kommer fra?
Det finnes mange produsenter av CMOS-sensorer, ja. Og vet du hva, den ene gjør det faktisk ikke så veldig mye bedre enn den andre. De jobber alle sammen med en matrise av fotodioder printet på silisiumwafers med den til en hver tid mest kostnadseffektive fotolitografiprosessen tilgjengelig. Den ene kan kanskje være et ørlite hakk bedre enn den andre, men når alt kommer til alt så har kvanteeffektiviteten til CMOS-sensorer nådd nesten 100%, og det er faktisk ikke så veldig mange flere fotoner å hente.

 

Så ja, Canon kan lage sensorer på 50 og 120 Mp, men det betyr ikke at de sensorene er bedre. Det betyr bare at de har valgt å dele opp brikken i flere fotodioder. De har faktisk ikke inkorporert mikroskopiske svarte hull i hver fotodiode som suger til seg mer lys.

 

Det det kanskje er noe å hente på er minimering av annen målestøy som ikke er fotonstøy. Det vil si termisk støy, støy fra elektromagnetisk interferens, støy fra ioniserende strålig osv. I tillegg har man muligens noe å hente på å optimalisere analoge forsterkerkretser og øke presisjonen i AD-omformingen. Men selve det fotosensitive arealet? Utviklingskurven der har nok flatet rimelig grundig ut. Skal man gjøre noe drastisk der, så kreves det et fullstendig paradigmeskifte. Da må man vekk fra Bayersensoren (siden bayerfilteret faktisk filtrerer vekk drøyt 50% av lyset) og begynne å jobbe med helt nye materialer og produksjonsprosesser. Det er ikke gjort i en håndvending, uansett hvor mye penger man kaster på problemet.

 

Når du som "sofa vitenskapsmann" at det som Fossum jobber med "er noe han vet ikke er realiserbart, punktum", samtidig som han sier at han er 100% sikker på at han lykkes med å løse oppgaven. Da må jeg jo bare le!
Kilde?

 

Som sagt tidligere, har du faktisk peiling på at dette er noe han jobber med og tror han er i stand til å løse, eller er det bare et tankeeksperiment? Jeg er ikke i tvil om at Fossum vet hva han snakker om, men det betyr ikke at de som hører på forstår hva han sier.

Lenke til kommentar
Videoannonse
Annonse

Siden 70-tallet har det blitt hevdet at "nå stopper utviklingen, og Moores lov blir ugyldig". Det vil nok skje til slutt, men ambisjoner og grådighet har vært gode mekanismer til å tyne ting ganske så lenge. Så du kurven min over DR? Så du dagens nyhet om ytelsen til D800 ved høy iso vs D700? Jeg tror jommen ikke utviklingen stoppet denne generasjonen heller...

 

-k

Hvilken nyhet? Jeg har sett ganske mange nyheter de siste årene om kameraer som er så sinnsykt mye bedre enn sine forgjengere, og så setter DxO seg ned med råfiler og viser at sensorene i praksis yter det samme, mens jpeg-etterbehandlingen har fått mye mer regnekraft kastet etter seg.

 

Og ja, jeg så kurven over DR, men som tidligere nevnt så er jeg ikke overbevist om at det skyldes noe annet enn at de har klart å øke kapasiteten på elektronbrønnen, ikke at de har gjort noe drastisk med selve det fotosensitive laget.

Lenke til kommentar

Det er en stor mengde produsenter av CMOS sensorer i verden. Noen gjør det bedre enn andre. Canon viste frem 50Mpx APS-C i 2007 og 120Mpx APS-H i 2010. Tror du virkelig det de putter i DSLR er deres siste og beste. Først skal de selge den beste teknologien til det militære og medisinsk industri til veldig høy pris. Når de får neste oppgradering så får vi kanskje "smake litt" på hva de har hatt i 5-10 år. Hva slags sensor tror du sitter i Predator dronene? Siste jeg hørte om det var 1.8 Gigapixel. Hvor tror du den teknologien kommer fra?

Og hvor lett tror du det er å lage disse sensorene i stor skala i forhold til de som masseproduseres ? Militæret kan godt kjøpe sensorer til en halv million kroner per stk. Jeg har ikke råd.

 

Når du som "sofa vitenskapsmann" at det som Fossum jobber med "er noe han vet ikke er realiserbart, punktum", samtidig som han sier at han er 100% sikker på at han lykkes med å løse oppgaven. Da må jeg jo bare le!

Nå har jeg mistanke om at par av debatantene her ikke er sofa-vitenskapsfolk, men folk som faktisk vet hva de snakker om.

Lenke til kommentar
Eric Fossum foreslår en sensor som har minst mulig dynamisk område per sensel ("av", "på"), men kompenserer med et vanvittig antall slik at eneste begrensning er lyset som faller inn på sensoren. Såvidt jeg vet er den urealiserbar i nærmeste framtid, men kan være grei å ha som ledestjerne.
Sikker på at det ikke bare er et tankeeksperiment? Jeg mistenker at den godeste Fossum vet nok om kvantefysikk til å vite at den ikke er realiserbar, punktum. Du vil for det første aldri oppnå at eneste begrensning er lyset som faller inn på sensoren, fordi det alltid vil være annen stråling som påvirker måleresultatet ditt, i tillegg til sensorens temperatur. Og du vil heller ikke kunne krympe fotodioder og kretsbaner uendelig, fordi du til slutt vil nå et nivå hvor det ikke blir praktisk gjennomførbart å lese dem av siden kvantetunnellering gjør at du ikke vil klare å skille ut hvilken fotodiode som har levert hvilket elektron.

Jeg synes Fossums presentasjon var interessant, ikke minst fordi det ga en liten aha-opplevelse angående behov for DR. Forslaget hans er selvsagt ekstremt og mange år inn i framtida, men se det likevel litt i sammenheng med dagens sensorer. Jo mer man krymper hver sensel, jo mindre blir behovet for DR per piksel. Det minner forsåvidt litt om en annen kjent fototeknologi, flimen. Hvert korn i filmen er en ørliten krystall som kan endre egenskap hvis den treffes av et foton. Hver krystall har liten DR, men kombinert med at det er veldig mange av de og ulike aberasjoner hele tiden fører til at filmen får en spraydusj av fotoner i stedet for en snorrett "laserstråle" så vil det til sammen danne et bilde med vidt variabel DR. Det er samme teknikk avistrykkeriene og blekkskrivere bruker på å skape et vell av fargetoner bare ved hjelp av noen få blekk-sorter. Selv sort-hvitt avisenes ene blekk gir massevis av grånyanser når man ser det på litt avstand. Den mest begrensende faktoren der er nok papirets hvitnyanse vs sparing på blekk-kostnadene ved å bare bruke akkurat nok til å gi en viss kontrast.

 

Fossums av-på lagring av lys forenkler en del ting fordi det er lettere å lese ut 1 bit per sensel enn det er å lagre og lese av en analog verdi som skal forsterkes og digitaliseres. Hver sensel vil få en enklere konstruksjon og dermed lettere å produsere tettere per brikke. Mye av teknologien er allerede ferdig utviklet. Sensoren han prater om minner om en helt vanlig DRAM minnebrikke med av-på celler. Skriveakviterings-linjene i DRAM-en kan fjernes og cellene kan gjøres fotosensitive. I dag produseres enkeltbrikker med opp til 64 gigabit i ett lag. Eller tilsvarende 64 gigapiksler med av-på piksler. Akkurat som for fotografisk film så er det antallet kombinert med aberasjoner som sprayer fotonene utover, som gjør av-på til et bilde. Vil man på død og liv ha færre megapiksler med stor DR per piksel så kan man fint summere bit-ene fra et array på 64x64 bit-piksler for å lage en piksel med 128 ulike intensitetsivåer. Eventuelt større array for flere intensitetsnivåer. I tillegg økes intensitetnøyaktigheten ved å gjøre mange avlesninger per eksponering. Går man langt nok ned i pikseltall og høyt nok i avlesningsrate så havner man tilbake på dagens teknologi med svært mange intensitetsnivåer per piksel. Poenget mitt er den glidende sammenhengen det er mellom dagens sensorteknologi og det Fossum foreslår. Med tanke på at DRAM-produsentene allerede produserer 64 Gbit per brikke så ser jeg ikke den samme "umuligheten" i produserbarhet. Selvsagt er ikke dette klart nå eller i nær fremtid. De har en del år på seg å løse mange av problemene før dette er tenkt å nå masseproduksjon. Det høres slett ikke urealistisk ut.

Lenke til kommentar
Below is a simplified summary of the formal findings. The chart shows in line widths per picture height (LW/PH) which can be taken as a measure for sharpness. If you want to know more about it you may check out the corresponding Imatest Explanations.

http://www.photozone...-review?start=1

 

Vi var tidligere inne på noen verdier ang skarphet i senter og i hjørner og jeg viste til linken over, jeg ble da avvist i min tankegang om at jo flere MP jo større forskjell, det fordi testen med 15MP viste høyere tall enn testen med 8MP , og ja det skulle vel egentlig bare mangle .

men om en ser på tallene så vil de bli som følger (har her tatt tallene ved blender F1,4.

 

8 MP Center 1754 Border 1415

15MP Center 2237 Border 1432

 

Altså øker verdien i center med 483 men kun med 17 i kantene , dvs at ved økt antall MP øker disse tallene 28 ganger i senter for hver enkelt gang i kantene .

Teoretisk skulle det da bli ved feks 36MP

center 3686 og kunn 1483 i hjørnene.

Og da er vi tilbake til mitt fortsatt ubesvarte spørsmål .

Hvor mange ganger kan denne forskjellen øke før det blir direkte forstyrrende på bildet, altså at forskjellen mellom senter og hjørner blir så stor at helheten ødlegges :hmm:

Som du ser, er kantskarpheten begrenset av objektivet. Skarpheten der forblir den samme (ok, marginal økning). Skarpheten i midten blir bedre. Du kan ikke fra de tallene der ekstrapolere hvor stor skarpheten blir med en APS-C 36 Mp sensor. (Er det det du forsøker?) Du kan heller ikke ekstrapolere skarpheten til kanter som ligger utenfor APS-C bildesirkelen.

 

Men legg merke til at det alltid er entydig økning av skarphet ved økt pikseltall. Alt fra marginal forskjell til stor forskjell. Bildet får flere lw totalt i både høyde og bredde ved å øke pikseltallet.

 

Hypotetisk kan vi tenke oss at man pikseltallet til uendelig. Da vil optikken begrense skarpheten over hele flaten, alltid. Reduserer man pikseltallet fra uendelig og ned mot de antall vi snakker om her så vil sensoren begynne å redusere skarpheten ytterligere. Det virker som du vil senke pikseltallet så mye at du er sikker på at hele bildeflaten blir begrenset av sensoren. Jeg synes det er et håpløst mål i og med at det betyr redusert skarphet.

 

Jeg forstår problemet med store filer, fps, redigeringshastighet og den biten, men for skarphetens del er økt pikseltall alltid en fordel.

Endret av Simen1
Lenke til kommentar

Fossums av-på lagring av lys forenkler en del ting fordi det er lettere å lese ut 1 bit per sensel enn det er å lagre og lese av en analog verdi som skal forsterkes og digitaliseres. Hver sensel vil få en enklere konstruksjon og dermed lettere å produsere tettere per brikke. Mye av teknologien er allerede ferdig utviklet. Sensoren han prater om minner om en helt vanlig DRAM minnebrikke med av-på celler. Skriveakviterings-linjene i DRAM-en kan fjernes og cellene kan gjøres fotosensitive. I dag produseres enkeltbrikker med opp til 64 gigabit i ett lag. Eller tilsvarende 64 gigapiksler med av-på piksler. Akkurat som for fotografisk film så er det antallet kombinert med aberasjoner som sprayer fotonene utover, som gjør av-på til et bilde. Vil man på død og liv ha færre megapiksler med stor DR per piksel så kan man fint summere bit-ene fra et array på 64x64 bit-piksler for å lage en piksel med 128 ulike intensitetsivåer. Eventuelt større array for flere intensitetsnivåer. I tillegg økes intensitetnøyaktigheten ved å gjøre mange avlesninger per eksponering. Går man langt nok ned i pikseltall og høyt nok i avlesningsrate så havner man tilbake på dagens teknologi med svært mange intensitetsnivåer per piksel. Poenget mitt er den glidende sammenhengen det er mellom dagens sensorteknologi og det Fossum foreslår. Med tanke på at DRAM-produsentene allerede produserer 64 Gbit per brikke så ser jeg ikke den samme "umuligheten" i produserbarhet. Selvsagt er ikke dette klart nå eller i nær fremtid. De har en del år på seg å løse mange av problemene før dette er tenkt å nå masseproduksjon. Det høres slett ikke urealistisk ut.

Ok, når noen som faktisk har satt seg inn i det forklarer det, så skal jeg være enig i at det høres langt mer saklig ut.

 

Enig i at det er en interessant teknikk som høres ut som noe som er verdt å teste ut, men om det i praksis vil gi merkbart bedre kvanteeffektivitet er jeg fremdeles noe skeptisk til. Og jeg lurer også på hvordan han tenker seg at man skal klare å lese ut fargeinformasjon. Å lage et så høyoppløst bayerfilter høres jo unektelig litt komplisert ut :ermm:

Lenke til kommentar
Hvilken nyhet? Jeg har sett ganske mange nyheter de siste årene om kameraer som er så sinnsykt mye bedre enn sine forgjengere, og så setter DxO seg ned med råfiler og viser at sensorene i praksis yter det samme, mens jpeg-etterbehandlingen har fått mye mer regnekraft kastet etter seg.

Tiden for "sinnsykt mye bedre" er antageligvis forbi. Jeg tenkte på denne. D700 og D800 sammenlignet ved høy iso, raw-filer fremkalt i RAWTherapee, D800 nedskalert for å matche D700, croppet område utenfor fokus-punkt:

http://nikonrumors.com/2012/03/05/another-nikon-d700-vs-nikon-d800-high-iso-comparison.aspx/

D700_D800_25600_comp-1024x785.jpg

 

Hvis jeg får lov til å lage en noe karikert hypotese, som fremdeles er i nærheten av det vi kan se hevdet på forum som dette: "fysikkens lover gjorde at utviklingen stoppet opp for 4 år siden. Dersom man krymper senslene noe utover det D700 hadde, så vil det gå ut over støy-ytelsen for total-bildet ved høy ISO uavhengig av produksjonsteknikk/kunnskaps-utvikling", så synes jeg at sammenligningen over er et godt argument imot. Gitt at sammenlingningen er relevant og ærlig. Enig?

Og ja, jeg så kurven over DR, men som tidligere nevnt så er jeg ikke overbevist om at det skyldes noe annet enn at de har klart å øke kapasiteten på elektronbrønnen, ikke at de har gjort noe drastisk med selve det fotosensitive laget.

Det er vel utbredt enighet om at framskrittet gjort med Sonys sensor i (bl.a.) Nikon D7000 skyldes redusert read-noise?

 

-k

Endret av knutinh
  • Liker 1
Lenke til kommentar

Enig i at det er en interessant teknikk som høres ut som noe som er verdt å teste ut, men om det i praksis vil gi merkbart bedre kvanteeffektivitet er jeg fremdeles noe skeptisk til. Og jeg lurer også på hvordan han tenker seg at man skal klare å lese ut fargeinformasjon. Å lage et så høyoppløst bayerfilter høres jo unektelig litt komplisert ut :ermm:

Hvis man greier å lage en slik sensor til en fornuftig pris så kjøper jeg den, selv uten farger. De opplagte valgene er vel farge-filter (Bayer), penetrasjons-dybde i silisium (Foveon), tids-multiplexing (DLP projektor) eller splitting ("3CCD" kamera).

 

Jeg synes at den er grei som et tanke-eksperiment. Mange av oss er fastlåst i tanken om høy kvalitet per sensel. Ved å tenke på en slik sensor så kan man kanskje penses inn på tanken om gode bilder i stedet. Det ville være en positiv utvikling i mine øyne.

 

Å modulere amplitude-informasjon ned på to eller "få" nivåer vha høy samplingsfrekvens og dithering er ganske utbredt (aviser, blekk-skrivere, AD/DA til lydbruk, SACD-systemet,såkalte digitale lydforsterkere,...). Det morsomme med fotografi er at signalet må være selv-dithrende: hvis "signalet" i et område hadde tilsvart 0.49 fotoner så ville vi uten dithering aldri lese ut noe annet enn "0" i dette området. Legg på zero-mean støy med en eller annen PDF så vil signalet kunne 0.49 tre fram midlet over tid/rom. Kanskje går det opp noen lys (pun intended) for oss halv-tekniske om kvante-effekter også.

 

-k

Endret av knutinh
Lenke til kommentar
Jeg tror du har et litt for naivt forhold til markedskreftene hvis du tror de kan forandre fysikken.

Hvis Aethius har rett, så er 5Dmk3 i stand til å benytte seg av alle senslene ved video-opptak (binning/skalering i stedetfor line-dropping). Dette er såpass viktig for video (mindre aliasing og mindre støy), og video later til å være så viktig for 5D-serien, at jeg glatt ser for meg at Canon valgte en oppløsning/sensor-teknologi som prioriterer denne muligheten høyt.

 

Forøvrig så hevdes det at Canon har to fabrikker for kamera-sensorer, hvorav en er basert på eldre prosess-teknologi og en er nyere prosess-teknologi. Noen har foreslått at Canon utnytter ledig kapasitet på den eldre produksjonslinjen til å produsere større sensorer (hvor større sensler er til å leve med). Jeg vet ikke hvor økonomisk fornuftig en slik argumentasjon er, men det er i alle fall et forslag til mekanismer utenom ren kvantefysikk som påvirker leketøyene vi får fatt i.

 

-k

Lenke til kommentar
Enig i at det er en interessant teknikk som høres ut som noe som er verdt å teste ut, men om det i praksis vil gi merkbart bedre kvanteeffektivitet er jeg fremdeles noe skeptisk til. Og jeg lurer også på hvordan han tenker seg at man skal klare å lese ut fargeinformasjon. Å lage et så høyoppløst bayerfilter høres jo unektelig litt komplisert ut :ermm:

Jeg er også litt skeptisk. Ny og uprøvd teknologi har alltid en viss risiko for å feile. Kanskje det rett og slett aldri når dagens kvalitetsnivå. På den andre siden av risikokurven kan vi risikere at det blir vesentlig bedre enn dagens kvalitetsnivå. Det er sistnevnte som gjør at jeg synes det er verd å sjekke ut. (Jeg stoler på Fossum, som mener det er verd å sjekke ut/forske på)

 

Bayerfilter vil neppe lages på det detaljnivået. Jeg ser for meg hele array med samme farge, omtrent på dagens nivå av fargedetaljering. Man bør vel egentlig spørre seg hva man skal med så mange "piksler" (Fossum kaller det jots). Slik jeg leser artikkelen er svaret hverken detaljering av farger eller detaljnivå a la CSI Miami. (det ville uansett vært urealistisk med tanke på diffraksjon). Poenget med så mange "piksler" er altså ikke detaljgrad men en alternativ måte å registrere intensitet på. Intensiteten er digital i utgangspunktet og kan summeres blokkevis "binnes" på stedet ved hjelp av enkle kretser. Den analoge signalkjeden oppstår aldri. Hvert foton (en digital bit) blir aldri samlet i noen "regnbøtte" som må leses analogt på noe vis. Dette sparer mye plass og man slipper en hel del støykilder som analog signalgang ville medført.

 

Jeg ser for meg at de fleste jots i et array har "normal" avlesningshastighet, men at en liten andel har ekstra kort avlesningshastighet for å representere et høyere intensitetsnivå. Noe lignende tankegangen bak Fujifilms SuperCCD-sensor. Eventuelt flere nivåer for å kunne produsere ennå større DR.

Lenke til kommentar

Det er vel utbredt enighet om at framskrittet gjort med Sonys sensor i (bl.a.) Nikon D7000 skyldes redusert read-noise?

Analog signalbehandling og AD-omforming, med andre ord.

 

Nikon har jo også klart å gjøre noe drastisk med signalbehandlingen sin fra D3/D700 til D3s (sistnevnte er opp til to trinn bedre enn sine forgjengere i de mørkeste tonene, selv om sensoren er den samme). Så det skal jo bli interessant å se hvordan D800 (skalert) sammenligner med D3s.

Lenke til kommentar
Below is a simplified summary of the formal findings. The chart shows in line widths per picture height (LW/PH) which can be taken as a measure for sharpness. If you want to know more about it you may check out the corresponding Imatest Explanations.

http://www.photozone...-review?start=1

 

Vi var tidligere inne på noen verdier ang skarphet i senter og i hjørner og jeg viste til linken over, jeg ble da avvist i min tankegang om at jo flere MP jo større forskjell, det fordi testen med 15MP viste høyere tall enn testen med 8MP , og ja det skulle vel egentlig bare mangle .

men om en ser på tallene så vil de bli som følger (har her tatt tallene ved blender F1,4.

 

8 MP Center 1754 Border 1415

15MP Center 2237 Border 1432

 

Altså øker verdien i center med 483 men kun med 17 i kantene , dvs at ved økt antall MP øker disse tallene 28 ganger i senter for hver enkelt gang i kantene .

Teoretisk skulle det da bli ved feks 36MP

center 3686 og kunn 1483 i hjørnene.

Og da er vi tilbake til mitt fortsatt ubesvarte spørsmål .

Hvor mange ganger kan denne forskjellen øke før det blir direkte forstyrrende på bildet, altså at forskjellen mellom senter og hjørner blir så stor at helheten ødlegges :hmm:

Som du ser, er kantskarpheten begrenset av objektivet. Skarpheten der forblir den samme (ok, marginal økning). Skarpheten i midten blir bedre. Du kan ikke fra de tallene der ekstrapolere hvor stor skarpheten blir med en APS-C 36 Mp sensor. (Er det det du forsøker?) Du kan heller ikke ekstrapolere skarpheten til kanter som ligger utenfor APS-C bildesirkelen.

 

Men legg merke til at det alltid er entydig økning av skarphet ved økt pikseltall. Alt fra marginal forskjell til stor forskjell. Bildet får flere lw totalt i både høyde og bredde ved å øke pikseltallet.

 

Hypotetisk kan vi tenke oss at man pikseltallet til uendelig. Da vil optikken begrense skarpheten over hele flaten, alltid. Reduserer man pikseltallet fra uendelig og ned mot de antall vi snakker om her så vil sensoren begynne å redusere skarpheten ytterligere. Det virker som du vil senke pikseltallet så mye at du er sikker på at hele bildeflaten blir begrenset av sensoren. Jeg synes det er et håpløst mål i og med at det betyr redusert skarphet.

 

Jeg forstår problemet med store filer, fps, redigeringshastighet og den biten, men for skarphetens del er økt pikseltall alltid en fordel.

 

Skarpheten er begrenset av objektivet og jeg er klar over at det jeg viste til er tatt med APS-C , men vi vet jo at kantskarpheten faktisk er enda dårligere med FF så derfor vil jo forskjellen bli enda større der .

Nei jeg vil ikke senke pikseltall det jeg funderer på er rett og slett om forskjellen mellom senter og kant til slutt kan bli så stor at enkelte objektiv rett og slett ikke egner seg til FF med mange MP.

Jeg ser for meg at skarpheten vil øke betydelig i midten men kun marginalt i hjørnene og at dette skaper en større og større forskjell jo flere MP kamera velger og jo større forskjellen er jo tydeligere kommer dette frem på bildet om en ikke har mulighet/vil beskjere bilder .

Den økningen jeg snakker om vises jo tydelig i eksemplet jeg la ut .

Lenke til kommentar
...det jeg funderer på er rett og slett om forskjellen mellom senter og kant til slutt kan bli så stor at enkelte objektiv rett og slett ikke egner seg til FF med mange MP.

Når jeg tar portrett ved f/1.4 så ønsker jeg vanligvis stor oppløsning i sentrum og/eller stor lysstyrke. Oppløsningen i hjørnene er for meg lite relevant i slike tilfeller. Hvorvidt jeg egentlig trenger mer enn 12 MP er et åpent spørsmål, men å fange øyne og øyenvipper med større presisjon er ikke et problem, snarere en god ting (for meg personlig).

 

-k

Endret av knutinh
Lenke til kommentar

Den antagelsen har du helt rett i. Forskjellen i skarphet mellom senter og hjørner øker med økende pikseltall. Ikke fordi hjørnene blir mer uskarpe, men fordi senter blir skarpere.

 

Nettop og derfor lurer jeg faktisk på om enkelte objektiv ikke da kommer til å slite betydelig mere enn andre, dette er som sagt ikke et problem på bilder du kan croppe, men på bilder der en viktig del av motivet er feks i høyre hjørne . Jeg ser for meg at med flere antall MP på et kamera vil denne forskjellen bli betydelig større, ikke fordi objektivet blir mindre skarpt i hjørnene men betydelig skarpere i senter og vi får dermed en markant forskjell mellom disse to .

 

...det jeg funderer på er rett og slett om forskjellen mellom senter og kant til slutt kan bli så stor at enkelte objektiv rett og slett ikke egner seg til FF med mange MP.

Når jeg tar portrett ved f/1.4 så ønsker jeg vanligvis stor oppløsning i sentrum og/eller stor lysstyrke. Oppløsningen i hjørnene er for meg lite relevant i slike tilfeller. Hvorvidt jeg egentlig trenger mer enn 12 MP er et åpent spørsmål, men å fange øyne og øyenvipper med større presisjon er ikke et problem, snarere en god ting (for meg personlig).

 

-k

 

Der er vi enig, men da jeg startet å lure på dette var det fordi det i enkelte tilfeller er relevant/viktig å bevare den delen av motivet som er i hjørne .

Lenke til kommentar

Der er vi enig, men da jeg startet å lure på dette var det fordi det i enkelte tilfeller er relevant/viktig å bevare den delen av motivet som er i hjørne .

Det er jo litt uvanlig problemstilling at høy hjørneskarphet er viktig. Dvs. i mange av tilfellene der det er aktuellt, så kan man blende ned til en brennvidde med god skarphet over hele bildet.

 

Jeg antar at du tenker mest på fuglefotografi, der du ikke kan garantere at motivet er i senter; men til akkurat det, så tror jeg at et crop-kamera er å foretrekke, særlig fordi du får smalere bildevinkel for en gitt brennvidde, og dermed mer forstørrelse.

 

La oss anta at du har en D7000 og en D800, setter på en 70-200mm på begge og tar bilde av en fugl. Cropper du ned til en firkant som akkruat dekker fuglen, så ender du opp med mer eller mindre samme antall piksler. Eneste fordel med D800, er at fuglen i noen tilfeller der den i D7000's tilfelle er utenfor området.

Lenke til kommentar

Der er vi enig, men da jeg startet å lure på dette var det fordi det i enkelte tilfeller er relevant/viktig å bevare den delen av motivet som er i hjørne .

Det er jo litt uvanlig problemstilling at høy hjørneskarphet er viktig. Dvs. i mange av tilfellene der det er aktuellt, så kan man blende ned til en brennvidde med god skarphet over hele bildet.

 

Jeg antar at du tenker mest på fuglefotografi, der du ikke kan garantere at motivet er i senter; men til akkurat det, så tror jeg at et crop-kamera er å foretrekke, særlig fordi du får smalere bildevinkel for en gitt brennvidde, og dermed mer forstørrelse.

 

La oss anta at du har en D7000 og en D800, setter på en 70-200mm på begge og tar bilde av en fugl. Cropper du ned til en firkant som akkruat dekker fuglen, så ender du opp med mer eller mindre samme antall piksler. Eneste fordel med D800, er at fuglen i noen tilfeller der den i D7000's tilfelle er utenfor området.

 

Jeg ser også det , men de fleste har bare råd til eller synest det kun er økonomisk forsvarlig åha et kamera og je jeg vet en kan blende ned,men slik jeg ser det er denne problematikken der fortsatt og jeg snakker om gitte tilfeller der en ønsker å beholde hjørnene på akkurat det blinkskuddet tatt med FF .

Her er det ikke en kritikk av kamera med mange MP som ligger bak, men det å prøve å belyse et "problem" som kan oppstå og å finne ut av hvilke objektiver som egner seg eller ikke nettop på slike kamera. Nikon har kommet med 36MP og jeg betviler at de får være alene der så lenge og jeg betviler også at 36MP er øvre grense, jeg tror vi vil se kamera med FF som beveger seg opp mot 50MP om ikke så alfor lenge og da blir jo dette enda viktigere .

Jeg annser dette som en diskusjon om objektivenes evne til å yte kameraene rettferdighet og det uansett merke .

Lenke til kommentar

Det er vel utbredt enighet om at framskrittet gjort med Sonys sensor i (bl.a.) Nikon D7000 skyldes redusert read-noise?

Analog signalbehandling og AD-omforming, med andre ord.

 

Nikon har jo også klart å gjøre noe drastisk med signalbehandlingen sin fra D3/D700 til D3s (sistnevnte er opp til to trinn bedre enn sine forgjengere i de mørkeste tonene, selv om sensoren er den samme). Så det skal jo bli interessant å se hvordan D800 (skalert) sammenligner med D3s.

Uten å ha lest alle innlegg her. D3s har _ikke_ samme sensor som D3/D700. D3s har en ny sensor.

Lenke til kommentar

Uten å ha lest alle innlegg her. D3s har _ikke_ samme sensor som D3/D700. D3s har en ny sensor.

Biten med silisium som absorberer fotoner og konverterer dem til elektriske ladninger er den samme. Hva som eventuelt er limt fast oppå og hva som er gjort med avlesningskretsene er en annen sak.
Lenke til kommentar

Uten å ha lest alle innlegg her. D3s har _ikke_ samme sensor som D3/D700. D3s har en ny sensor.

Biten med silisium som absorberer fotoner og konverterer dem til elektriske ladninger er den samme. Hva som eventuelt er limt fast oppå og hva som er gjort med avlesningskretsene er en annen sak.

De som kan dette sier det er en full optimalisering av D3 sensoren; så en v1.5 om man vil. Nøyaktig hva som er gjort kjenner ikke jeg til. Men de fleste elementer er forskjellige; fra signal/støy til dynamikk. Oppløsningen er forøvrig helt lik.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...