Gå til innhold

Hvor skal dette ende?


Anbefalte innlegg

Ja, det er korrekt, at for sensorstørrelser der i dag kun bruges i SLR, er der stadig plads til flere megapixels, uden at det er meningsløst.
Men det antar at diffraksjon (gitt en ideell formel som ikke stemmer heelt med virkeligheten i ekstremtilfellene) er største begrensende faktor. Andre egenskaper ved optikken begrenser skarpheten på mye lavere pikseltall enn det diffraksjonsbegrensningen skulle tilsi.

 

På APS-C-format, så må det skje ett eller annet dramatisk med produksjonsteknikken for optikk før det eventuelt blir verdt å øke oppløsningen markant over de 12-15 Mp man har i dag.

 

(Men der gælder stadig at det vil være på bekostning af lysfølsomhed og dynamik, da det reducerer det samlede aktive lysfølsomme areal. I hvert fald så længe elektronik ikke er på bagsiden af sensorerne)
Selv om man flytter avlesningskretsene på baksiden, så vil det alltid være et inaktivt areal eller "vegg" mellom fotodiodene som begrenser det aktive arealet. Men dette er mye mindre enn arealet av kretsene.
Lenke til kommentar
Videoannonse
Annonse
I tillegg er jo såvidt jeg forstår 50D's sensor en forbedret type uten avstand mellom hver sensor på brikken? Dette var klønete forklart, men poenget var altså en annen konstruksjon.
Selve bildebrikken er konstruert på samme grunnprinsipp, men mikrolinsene som sitter over fotodiodene og bryter lyset inn på disse (ta en titt på flashanimasjonen her for å se hvordan de er plassert) er konstruert på en slik måte at de overlapper avlesningskretsene og leder mer av lyset forbi dem.

 

Det gjør at lysmengden som treffer fotodioden tilsvarer det en større fotodiode ville fått. Ulempen er at mindre fotodioder ikke har like stor "elektronbrønn", slik at det ikke gir samme dynamiske omfang som en større fotodiode med samme fotosensitive areal ville fått (en mindre piksel blir utbrent av en mindre lysmengde, rett og slett).

Lenke til kommentar
Blæ :p

 

Snu det på hodet og prøv å se det dere "mener/påstår", i prinsippet sett utenifra skinner det ganske klart igjennom at dere utifra deres viten mener at produsentene pga div dere mener gjør motsatt av det de burde

Jeg mener de prioriterer feil, siden de har nådd et punkt hvor økning i pikseltallet ikke gir bedring av detaljgjengivelse. Det er langt fra det samme som å mene at det nye er "dårligere enn det gamle var".
Lenke til kommentar
Jeg har som sagt hovedsakelig satt meg inn i speilreflekssensorer, og der har man som jeg har nevnt nådd punktet hvor det ikke lenger er noe å vinne. Canons 15 Mp-sensor overgår det aller meste av optikk den er testet med, og klarer ikke å levere målbart høyere oppløsningsevne enn den eldre 12 Mp-sensoren.

 

Pentax sin 14,6 Mp-sensor ser heller ikke ut til å gi merkbart høyere oppløsningsevne enn 12 Mp-sensorer fra Nikon og Sony, men sammenligninger på tvers av systemer er litt iffy siden de er tatt med forskjellig optikk.

 

På kompaktkameraer er det vanskeligere å sammenligne, siden de består av en pakke av optikk og sensor. Man kan ikke si noe sikkert om hvilket element som er begrensende.

Nu forholder de 275Mpixel (og deraf afledte tal) sig jo netop IKKE til den reelt eksisterende optik, men til hvad den teoretiske grænse ved ideel optik vil være.

Men som Simen1 og andre har påpeget, så er dette ikke det der gælder i virkeligheden.

 

Men det har jeg ikke mulighed for at kvantificere. Men da vi først er ved at nå grænsen på kompaktkameraer, så undrer det mig at den skulle være nået på SLR, da man jo her har så meget større objektiver. Og forhåbentligt også af højere optisk kvalitet. Det sidste behøver selvfølgeligt ikke at være tilfældet, da det jo nok er meget sværere (og dyrere) at lave en hel stor linse med en given præcision end en lille.

 

Hvis jeg zoomer helt ind på et tilfældigt (skarpt) billede taget med fx Ricoh CX1, så er der faktisk fornuftig information i den enkelte pixel (se fx makro-links i anmeldelsen af CX1), så grænsen er ikke nået, omend den nok er tæt ved.

 

Men det antar at diffraksjon (gitt en ideell formel som ikke stemmer heelt med virkeligheten i ekstremtilfellene) er største begrensende faktor. Andre egenskaper ved optikken begrenser skarpheten på mye lavere pikseltall enn det diffraksjonsbegrensningen skulle tilsi.

 

På APS-C-format, så må det skje ett eller annet dramatisk med produksjonsteknikken for optikk før det eventuelt blir verdt å øke oppløsningen markant over de 12-15 Mp man har i dag.

 

Selv om man flytter avlesningskretsene på baksiden, så vil det alltid være et inaktivt areal eller "vegg" mellom fotodiodene som begrenser det aktive arealet. Men dette er mye mindre enn arealet av kretsene.

Enig i begge dele. :thumbup:

Endret av EskeRahn
Lenke til kommentar
Nu forholder de 275Mpixel (og deraf afledte tal) sig jo netop IKKE til den reelt eksisterende optik, men til hvad den teoretiske grænse ved ideel optik vil være.

Men som Simen1 og andre har påpeget, så er dette ikke det der gælder i virkeligheden.

Tja, det er vel det som er grunnlaget for ståstedet mitt. Hva som er teoretisk mulig i en ideell verden er teoretisk interessant, men i praksis uinteressant. Som ingeniør er jeg mest interessert i hva som er den optimale løsningen med det man får til i praksis :p

 

Men det har jeg ikke mulighed for at kvantificere. Men da vi først er ved at nå grænsen på kompaktkameraer, så undrer det mig at den skulle være nået på SLR, da man jo her har så meget større objektiver. Og forhåbentligt også af højere optisk kvalitet. Det sidste behøver selvfølgeligt ikke at være tilfældet, da det jo nok er meget sværere (og dyrere) at lave en hel stor linse med en given præcision end en lille.
Bingo.

 

Mye av grunnen til at kompaktkameraer henger såpass godt bra med i forhold til speilreflekskameraene er nok nettopp det at kompaktkameraoptikk er markant skarpere enn speilrefleksoptikk (hvis man måler oppløsning per mm og ikke i forhold til bildestørrelse). Det er mye mindre glass som lyset må passere gjennom og det er mye lettere å få jevn optisk kvalitet på tynnere glasslegemer. Det reduserer nok uskarphet som følge av imperfeksjoner i glasset og kromatisk feilbrytning ganske drastisk. I tillegg er det mye lettere å få glasslegemene slipt jevnt. Spesielt entusiastkameraer som LX3 og G10 henger overraskende bra med på oppløsningsevne, men de har nok også rimelig påkostet optikk.

 

CX1 har også relativt moderat pikseltetthet for et kompaktkamera (33 Mp/cm^2 i følge dpreview, omtrent samme som Canon G10) og antageligvis rimelig skarp optikk.

 

Litt særdeles uvitenskapelig browsing over eksempelbilder fra kompaktkameraer med 40+ Mp/cm^2 på dpreview tyder i hvert fall på at det ikke er så veldig mye å vinne på å gå opp til det nivået.

Endret av Sutekh
Lenke til kommentar
Selv om man flytter avlesningskretsene på baksiden, så vil det alltid være et inaktivt areal eller "vegg" mellom fotodiodene som begrenser det aktive arealet. Men dette er mye mindre enn arealet av kretsene.
Er det forresten noen som har data om hvor mye areal som går tapt på grunn av avgrensning mellom diodene?

 

Frem til nå så har det jo vært rimelig uinteressant siden arealet av kretsene på overflaten uansett har vært den reelle begrensningen. Med bakbelyste sensorer begynner det å bli en interessant problemstilling.

Endret av Sutekh
Lenke til kommentar
Selv om man flytter avlesningskretsene på baksiden, så vil det alltid være et inaktivt areal eller "vegg" mellom fotodiodene som begrenser det aktive arealet. Men dette er mye mindre enn arealet av kretsene.
Er det forresten noen som har data om hvor mye areal som går tapt på grunn av avgrensning mellom diodene?

 

Frem til nå så har det jo vært rimelig uinteressant siden arealet av kretsene på overflaten uansett har vært den reelle begrensningen. Med bakbelyste sensorer begynner det å bli en interessant problemstilling.

Ja det er interessant, men kun hvis mikrolinserne ikke går ud over disse vægge eller ikke kantstøder, for ellers er det jo afstanden mellem disse der er den interessante.

Vi kommer jo så også til formen af hver subpixel. For i det normale bayer RGGB mønster ville det ideele jo være rektangulære/kvadratiske sensorer, men det gør jo mikrolinserne mere komplekse end hvis de bare er (forholdsvis) runde. Og en cirkel fylder jo kun 79% af det omgivende kvadrat, så der er lidt at hente dér. :yes:

 

...Og hvis man har runde sensorer i bikube-mønster, kommer man op på næsten fuld udnyttelse, 97%...

Endret av EskeRahn
Lenke til kommentar

Det er også en sammenheng mellom aktivt areal og kapasiteten til elektronbrønnen som er relevant, men ikke nødvendigvis enkel. Jeg leste en artikkel om det en gang, men har ikke klart å finne den igjen. Og min kunnskap om fotosensitive kretser er stort sett begrenset til dem som leverer en kontinuerlig strøm (solceller, m.a.o.). Jeg er veldig nysgjerrig på den faktiske fysikken i hvordan en bildebrikke "lagrer" ladningene før avlesning, men jeg har ikke funnet noe særlig om temaet.

 

Sånn jeg forstod det ut fra den artikkelen jeg ikke finner, så er kapasiteten til elektronbrønnen tilnærmet proporsjonal med arealet av fotodioden. Samtidig, så må spenningen over et visst minimum for at AD-omformeren skal klare å skille mellom signal og bakgrunnstøy.

 

Og hvis jeg da har forstått ting riktig, så vil f.eks. en stor piksel bare kreve 100 fotoner for å overgå støygulvet. Mens fire små piksler som dekker det samme arealet hver må ha den samme minimumsutgangsspenningen, slik at det kreves 400 fotoner på det samme arealet for å gi et meningsfylt signal. Så kan man selvsagt ty til hardwarebinning, men da bør man gå vekk fra bayermønster.

 

Men det jeg lurer på er hvordan maksimalkapasiteten til disse fire fotodiodene blir sammenlignet med maksimalkapasiteten til en stor, og hvordan "veggene" mellom diodene eventuelt påvirker dette. Hvis "elektronbrønnen" er kapasitiv, så er det jo to alternativer: enten har den større brønnen større kapasitans og maksimalspenningen blir den samme (men det stemmer dårlig overens med inntrykket mitt, jfr. forrige avsnitt), eller så har den samme kapasitans, men større maksimalspenning. I tilfelle sistnevnte, så skulle man tro det trengs mer isolasjon for å unngå lekkasjestrømmer mellom fotoceller som ligger ved siden av hverandre.

 

Kvantetunnellering mellom naboceller kan for så vidt også være en potensiell problemstilling, men jeg aner ikke om det faktisk er det.

Lenke til kommentar
Det er også en sammenheng mellom aktivt areal og kapasiteten til elektronbrønnen som er relevant, men ikke nødvendigvis enkel.

.

.

.

Spændende pointer du har i den post også :thumbup:

Jeg kan desværre ikke svare, men kan kun gentage opfordring til akam fra tidligere post:

Som det ses af de mange læsere og bidragsydere til denne tråd, er det et emne der optager mange, så jeg vil kraftigt opfordre AKAM til at opsummere de væsentlige pointer og formler/tabeller i en egentlig artikel, som vil gøre det nemmere at finde denne information.
Lenke til kommentar
Ja det er interessant, men kun hvis mikrolinserne ikke går ud over disse vægge eller ikke kantstøder, for ellers er det jo afstanden mellem disse der er den interessante.
Øh, ja. Poenget som jeg aldri kom til i min forrige post ( :blush: ) var jo da at hvis min forståelse er korrekt, så vil det å konsentrere mer lys inn på en liten fotodiode (ved hjelp av mikrolinser) ikke nødvendigvis ha samme virkning som det å ha større fotodioder. Rett og slett fordi det skal mindre total lysmengde til for at en liten fotocelle går i metning.

 

Men det er derfor det skulle vært interessant å vite mer detaljer om fysikken rundt dette.

Lenke til kommentar
I tillegg er jo såvidt jeg forstår 50D's sensor en forbedret type uten avstand mellom hver sensor på brikken? Dette var klønete forklart, men poenget var altså en annen konstruksjon.
Selve bildebrikken er konstruert på samme grunnprinsipp, men mikrolinsene som sitter over fotodiodene og bryter lyset inn på disse (ta en titt på flashanimasjonen her for å se hvordan de er plassert) er konstruert på en slik måte at de overlapper avlesningskretsene og leder mer av lyset forbi dem.

 

Det gjør at lysmengden som treffer fotodioden tilsvarer det en større fotodiode ville fått. Ulempen er at mindre fotodioder ikke har like stor "elektronbrønn", slik at det ikke gir samme dynamiske omfang som en større fotodiode med samme fotosensitive areal ville fått (en mindre piksel blir utbrent av en mindre lysmengde, rett og slett).

 

Ok, takk for forklaringen. Det kan da se ut for meg som om de tenker stadig nytt omkring problematikken. Ifølge animasjonen ser det ut for meg som at det å legge wiringen bak burde da gi en større brønn?

 

Disse to sakene viser vel og at produsentene prøver å omgå og tenker nye løsninger hele tiden.

 

Tor

Lenke til kommentar
Det er også en sammenheng mellom aktivt areal og kapasiteten til elektronbrønnen som er relevant, men ikke nødvendigvis enkel. Jeg leste en artikkel om det en gang, men har ikke klart å finne den igjen. Og min kunnskap om fotosensitive kretser er stort sett begrenset til dem som leverer en kontinuerlig strøm (solceller, m.a.o.). Jeg er veldig nysgjerrig på den faktiske fysikken i hvordan en bildebrikke "lagrer" ladningene før avlesning, men jeg har ikke funnet noe særlig om temaet.

Om jeg har oppfattet riktig er det snakk om kapasitiv lagring for både CCD og CMOS sensorer. Kondensatorene og fotodiodene fungerer nok kretsmessig som ulike komponenter, selv om de sikkert er et integrert design. Jeg ser for meg at kondensatoren enten er plassert under eller ved siden av fotodioden. Maksimal kapistans begrenses nok av arealet til kondensatoren (antagelig begrenset til ett lag). Spenningen begrenses nok av isolasjonen (materiale, tykkelse, areal, elektromigrasjon).

 

Fysikken med minimumspenning inn til AD stemmer nok slik du beskriver den, men det er sikkert flere kompliserende faktorer slik som cross talk og restladning i signallederne når man skifter fra avlesning av en rad til neste rad.

 

Jeg tror ikke det er så små avstander at kvantetunnellering blir et nevneverdig problem.

 

_____________

 

 

Apropos bayermønster og alternativer. Når man først skal granske detaljer i et bilde så tror jeg det vanligste visningsmediet er LCD-skjerm og 1:1. I sånne tilfeller tror jeg det kan gi mye mening å ha et mønster som er kompatible med pixlene på skjermen. Altså kvadrtatiske pixler med 3 sub-pixler på høykant ved siden av hverandre med rekkefølgen RGB. Dersom LCD-skjermene hadde hatt f.eks bikube-pixler ville nok det samme mønsteret på sensorene gitt mening (igjen: til granskningsarbeid i 1:1). Til plakat-utskrifer ville nok et CMYK-raster gitt mest mening for både sensor og print.

 

______________

 

 

Ellers så er jeg skeptisk til om en ideell sensor virkelig bør ha tynnest mulige vegger mellom sensorene. Airy disk pga diffraksjon bør ikke bare være mindre enn hver pixel, men også så liten at en lysstråle som i teorien ville truffet like ved en pixelvegg ikke spres ut til nabopixler pga diffraksjon. Med andre ord: Tykke vegger ville gitt høyere lokal kontrast fordi mindre av lyset smitter over til nabopixler.

Lenke til kommentar
.

.

Apropos bayermønster og alternativer. Når man først skal granske detaljer i et bilde så tror jeg det vanligste visningsmediet er LCD-skjerm og 1:1. I sånne tilfeller tror jeg det kan gi mye mening å ha et mønster som er kompatible med pixlene på skjermen. Altså kvadrtatiske pixler med 3 sub-pixler på høykant ved siden av hverandre med rekkefølgen RGB. Dersom LCD-skjermene hadde hatt f.eks bikube-pixler ville nok det samme mønsteret på sensorene gitt mening (igjen: til granskningsarbeid i 1:1). Til plakat-utskrifer ville nok et CMYK-raster gitt mest mening for både sensor og print.

.

.

Hmm :hmm: Der er flere ting jeg ikke er enig med dg i her:

  1. Er det nu rigtigt at 1:1 er den almindeligste visning?. Hvor mange megapixel har din skærm da? Min har kun 1920x1200, altså 2.3Mpixel, og derfor 6.9Msub-pixels...
    Silly me :wallbash: med 1:1 mener du selvfølgelig pixel til pixel, ikke billede til billede. :wallbash:
  2. Ideen med de to grønne sub-pixels er at øjet er mest sensitivt i midten af det spektrum vi kalder synligt lys. Så for at få flest mulige detaljer med her, er der flest grønne pixels.
  3. Husk at der efter normal bayer-sensor sker interpolation, så man ender med en fuld RGB pixel for hver af de fire R,G,G og B sensorer, ved anvendelse af information fra nabo-pixels.

Men jeg er derimod ganske enig med det du skriver omkring udskrifter. :thumbup: Faktisk tror jeg at et pseudo-tilfældigt mønster af subpixels (rent teoretisk) ville gøre det nemmere at undgå moiree-effekter, da fejl-mønstre så vil være mere diffuse, og derfor ikke så nemt trigge øjets gode evne til at se linier/mønstre. Det er jo netop det man udnytter i raster-tryk.

Men det ville jo give en noget mere kompleks beregning, når algoritmen skulle kende dette pseudo-tilfældige mønster.

 

Ad det med CMYK, så er vi jo ude i at det ene er lys, det andet noget der skal reflektere lys, derfor kontrastfarverne. Men bayer-farver de kunne selvfølgeligt nok optimeres så det blev optimalt ved CMYK-udskrifter.

Endret av EskeRahn
Lenke til kommentar
Ok, takk for forklaringen. Det kan da se ut for meg som om de tenker stadig nytt omkring problematikken. Ifølge animasjonen ser det ut for meg som at det å legge wiringen bak burde da gi en større brønn?
Plasseringen av avlesningskretsene har i utgangspunktet ikke noe å si for egenskapene til selve brikken. Hvorvidt det de eventuelt må gjøre med silisiumet for å kunne lage bakbelyste brikker har noen påvirkning er en annen sak, men det faller inn under de findetaljene om halvlederfysikk som jeg selv lurer på. Jeg leste i en artikkel om Sony-brikkene at waferen måtte slipes tynnere enn med konvensjonelle brikker, men jeg vet ikke hvordan det påvirker de elektriske egenskapene.

 

Men i utgangspunktet så er fordelen med bakbelyste sensorer at sensoren mottar mer lys, ikke at det øker kapasiteten til sensoren. Med andre ord, det bedrer ISO-egenskapene, ikke dynamisk omfang.

Lenke til kommentar
.

.

Til plakat-utskrifer ville nok et CMYK-raster gitt mest mening for både sensor og print.

.

.

Hvis jeg har forstået det rigtigt så vil CMYK og RGB ikke helt udspænde den samme del af farverummet. Og ingen af dem uspænder hele det synlige rum. Særligt kniber det i det blå-grønne område.

542px-CIExy1931_CIERGB.png

CIE_RGB-CMYK-Beleucht.png

Her er lidt links til interessante artikler i Wikipedia. De leder igen til et utal af andre artikler, så det er en større videnskab end jeg som lægmand umiddelbart havde forestillet mig.

 

Farve-rum: http://en.wikipedia.org/wiki/CIE_1931_chromaticity_diagram

'Gamut': http://en.wikipedia.org/wiki/Gamut

http://de.wikipedia.org/wiki/CIE-Normvalenzsystem

CMYK: http://en.wikipedia.org/wiki/CMYK_color_model

RGB: http://en.wikipedia.org/wiki/RGB_color_model

 

Så der er klart basis for at udvikle nye former for sensorer, skærme og printere, der bedre kan repræsentere/vise mere af det øjet kan se, og måske baseret på mere end blot end trekant.

 

__________________________

 

Tilføjelse af et par yderligere links omkring "gamut"

http://www.brucelindbloom.com/index.html?L...mutDisplay.html

http://www.brucelindbloom.com/images/GamutxyY_WF.gif

og 3D Gamut Viewer langt nede på denne side

http://www.brucelindbloom.com/index.html?W...gSpaceInfo.html

er vædig god til at forstå forskelle i de forskellige RGB-implementeringer. Det er nemmest at se hvad der sker med "Color space" sat til "XYZ"

Endret av EskeRahn
Lenke til kommentar

EskeRahn: Poenget med CMYK sensor og CMYK utskrift er at man unngår interpolerings-trinnet. (Kun når utskrift og sensor ikke er skalert og har et 1:1 pixelforhold)

 

Det samme gjelder en RGB-sensor.

 

NB. Jeg snakker om nøye gransking av bilder. Ikke fullskjermvisning eller reelle utskrifter i normale størrelser (10x15 cm - A3)

 

Jeg har også 24" skjerm, men det hadde vært deilig med 30" med 2560x1600 (RGB) og ~12,2 Megasubpixler. :dribble:

 

Ideen om random "mønster" med farger likte jeg og vil dra den ennå lengre: Random fysisk størrelse på pixlene og random plassering. Omtrent slik fotografisk film er bygget opp. Det hadde vært morsomt, veldig upraktisk å lage og sikkert veldig treg prosessering. Men det blir litt meningsløst når resultatet må interpoleres og skal vises f.eks på skjerm med rektangulære pixler.

Lenke til kommentar
EskeRahn: Poenget med CMYK sensor og CMYK utskrift er at man unngår interpolerings-trinnet. (Kun når utskrift og sensor ikke er skalert og har et 1:1 pixelforhold)

.

.

Jamen problemet er at man ikke bare kan lave en CMYK-sensor, da CMYK er substraktive farver baseret på reflektion af hvidt lys, mens indkommende lys på en sensor opfører sig additivt (som RGB). :no: Men man kunne vælge nuancer af R, G og B der bedst muligt passede til at blive printet med CMYK (se tegning i sidste, og de forskellige trekanter)

 

Og ja, det komplekse mønster du foreslår vil sikkert være ideelt. Så der er basis for en hel ny type af både sensorer og skærme - men det kommer til at kræve en del regnekraft, når det ikke skal vises pixel til pixel. :!:

 

(Min skærm er en nu en Samsung 275T+ som jeg godt kan anbefale. Jeg synes pixels bliver for små på en 30")

Lenke til kommentar
Jamen problemet er at man ikke bare kan lave en CMYK-sensor, da CMYK er substraktive farver baseret på reflektion af hvidt lys, mens indkommende lys på en sensor opfører sig additivt (som RGB). :no: Men man kunne vælge nuancer af R, G og B der bedst muligt passede til at blive printet med CMYK (se tegning i sidste, og de forskellige trekanter)
Problemet med printing kontra projeksjon er at du i utgangspunktet ikke kan variere intensiteten til fargestoffet på samme måte som du kan variere lysstyrken til piksler på en skjerm. I stedet må man ty til teknikker der man varierer dråpestørrelsen for å få det til å se slik ut på tilstrekkelig stor betraktningsavstand, og det er en teknikk som har sine begrensninger.

 

Jeg tror ikke det er noe å vinne på å eventuelt tilpasse RGB-sensorer til CMYK-fargerommet. Moderne RGB-sensorer klarer vel å skille mesteparten av adobeRGB-fargerommet, så det å tilpasse dem til CMYK-rommet blir å begrense dem. Jeg mer tro på å bruke utvidede print-fargerom som CcMmYK eller hexachrome til jobber der fargegjengivelse er kritisk, og det gjør man vel allerede i mer avanserte fotoskrivere.

Lenke til kommentar
Problemet med printing kontra projeksjon er at du i utgangspunktet ikke kan variere intensiteten til fargestoffet på samme måte som du kan variere lysstyrken til piksler på en skjerm. I stedet må man ty til teknikker der man varierer dråpestørrelsen for å få det til å se slik ut på tilstrekkelig stor betraktningsavstand, og det er en teknikk som har sine begrensninger.

 

Jeg tror ikke det er noe å vinne på å eventuelt tilpasse RGB-sensorer til CMYK-fargerommet. Moderne RGB-sensorer klarer vel å skille mesteparten av adobeRGB-fargerommet, så det å tilpasse dem til CMYK-rommet blir å begrense dem. Jeg mer tro på å bruke utvidede print-fargerom som CcMmYK eller hexachrome til jobber der fargegjengivelse er kritisk, og det gjør man vel allerede i mer avanserte fotoskrivere.

Du har ganske ret med nuværende brug af CMYK-farver.

Men når jeg snakker om at variere trekantens punkter, så tænkte jeg nu mere i at sikre at hele det CMYK (eller CcMmYK) kan printe er indeholdt, end at reducere trekanten mest muligt.

 

Jeg må indrømme at jeg ikke ved hvor stort et farverum der er dækket af en moderne foto-sensor. Det er jo ikke lige et tal man er vant til at se i specifikationer.

 

For min skærm angiver de "wide colour gamut (CCFL 97 %)", men har aldrig set tilsvarende angivelser for kamera-sensor. (De 97% lyder jo umiddelbart fint, men det er 97% af "NTSC standard". Og som det ses på figuren fra før, så er det jo ikke nogen vildt imponerende stor trekant... Et skøn vil være 50-60% af det farverum øjet kan se, med tvivlsom dækning i det grøn-blå område...)

 

 

Men der er jo ikke noget teoretisk til hindring for at lave CMYK med semitransparante farver. Altså således at en dråbe til en prik består af en passende mængde CMYK farver og (hvis nødvendigt) en klar bære-vædske, så dråber har samme størrelse. Men det kræver i hvert fald nogle fikse tekniske ideer for at farver fra en tidligere pixel er helt væk inden man blander den næste, hvis det skal kunne virke.

 

Men helt at afvise Siemen1's tanke om en sensor tilpasset at det skal ende som CMYK synes jeg nu ikke man skal.

Lenke til kommentar
Du har ganske ret med nuværende brug af CMYK-farver.

Men når jeg snakker om at variere trekantens punkter, så tænkte jeg nu mere i at sikre at hele det CMYK (eller CcMmYK) kan printe er indeholdt, end at reducere trekanten mest muligt.

Tja, jeg mener å ha lest at det allerede er oppfylt, at nyere bildesensorer ligger rimelig tett opp i aRGB-fargerommet. Men jeg skal ikke si det skråsikkert. :ermm:

 

For min skærm angiver de "wide colour gamut (CCFL 97 %)", men har aldrig set tilsvarende angivelser for kamera-sensor. (De 97% lyder jo umiddelbart fint, men det er 97% af "NTSC standard". Og som det ses på figuren fra før, så er det jo ikke nogen vildt imponerende stor trekant... Et skøn vil være 50-60% af det farverum øjet kan se, med tvivlsom dækning i det grøn-blå område...)
Mjo, men NTSC-standard omfatter hele CMYK-fargerommet og vel så det :p
Lenke til kommentar
×
×
  • Opprett ny...