Gå til innhold

foton

Medlemmer
  • Innlegg

    242
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av foton

  1. Mitt råd:

     

    Ut i fra de prisene du ga tidligere så ville jeg råde deg til å kjøpe nikon d50 pakken + en fast 50mm f/1.8, evt. canon 350 + en fast 50mm f/1.8.

     

    Hvis du ønsker å ta bilder av barn, spesielt innendørs, er høy iso viktig. Et lyssterkt objektiv som f.eks. disse 50mm til ca 1000 kroner vil gi deg helt andre muligheter enn det kit-objektivene gir. Canon vil gi deg litt bedre resultater i forhold til støy, men om det er verdt 1500 kroner ekstra kan du bare svare på. Dersom grensen er 7000 så ville jeg heller gått for nikon+50mm.

     

    Olympus og KM ville jeg droppet tanken på.

    5425683[/snapback]

     

     

    Olympus og KM har mer støy på høy ISO derfor bør jeg droppe dem?

    5426024[/snapback]

     

    Jeg sier ikke at du burde droppe dem, men JEG ville droppe dem fordi:

     

    Olympus: Dårlig på støy, 4/3 bildeformat i stedet for 3/2, dårlig med objektiver (sjekk f.eks. antall objektiver med fourthirds fatning i forhold til Canon fatning i produktguiden. Det gir det noe sånt som 45 objektiver under 3000 for canon mens fourthirds gir deg 5, og det neste koster over 4000. De er sikkert bra, men det er lite utvalg og de er dyre)

     

    KM: Har såvidt prøvd det og likte det helt enkelt ikke (Samme dårlige argument som endel nikon folk bruker når de forsøker å overbevise deg om at canon er alt for lite til å holde i og at nikon har så mye bedre ergometri). Har ikke noe tro på at "antishake" i body gir like gode resultater som når det sitter i objektivet.

  2. Mitt råd:

     

    Ut i fra de prisene du ga tidligere så ville jeg råde deg til å kjøpe nikon d50 pakken + en fast 50mm f/1.8, evt. canon 350 + en fast 50mm f/1.8.

     

    Hvis du ønsker å ta bilder av barn, spesielt innendørs, er høy iso viktig. Et lyssterkt objektiv som f.eks. disse 50mm til ca 1000 kroner vil gi deg helt andre muligheter enn det kit-objektivene gir. Canon vil gi deg litt bedre resultater i forhold til støy, men om det er verdt 1500 kroner ekstra kan du bare svare på. Dersom grensen er 7000 så ville jeg heller gått for nikon+50mm.

     

    Olympus og KM ville jeg droppet tanken på.

  3. Hva er poenget ditt egentlig? Mener du at kit objektivet egentlig burde vært en 17-40 eller 24-70? Det er vel egentlig bare pris det dreier seg om. Førstegangskjøpere er kanskje mer prisømfintlige enn de som allerede har valgt et system, og da kan fort 500 kroner forskjell se ut som den avgjørende faktoren.

     

    Tror ikke noe på teorien om at Canon og nikon lurer folk til å kjøpe først en billig zoom for deretter å kjøpe en dyrere senere. De ville sikkert ha foretrukket å selge de dyrere med en gang dersom det var en mulighet. Regner med at de har litt bedre fortjeneste på en 16-35 til 13000 enn en 18-55 til 900.

  4. Bokeh er jo i seg selv en effekt av at fokusplanet er tynt og at lys fra punkter utenfor fokusplanet sprer seg over bildeflaten. Det er riktig at skarpe lyspunkter da vil spre seg utover og at i enkelte tilfeller kan man kjenne igjen den geometriske formen på lukkerlamellene, av og til med en klar halo i ytterkant. Hvorvidt man liker dette er selvfølgelig subjektivt, men jeg har det inntrykk at de fleste liker en bokeh hvor man ikke ser så mye til effekten av lukkerbladene, men hvor fargene blander seg jevnt over i hverandre og lyspunktkilder gir tilnærmet en sirkel med uniform intensitet. Forøvrig så ser jeg ikke helt hva som er forskjellen mellom makro og ikke makro i den sammenheng. Det er kombinasjonen av fokallengde, blenderåpning og avstand til objektivet som er avgjørende for hvor bredt fokusplanet er, og derfor bestemmer graden av uskarphet eller "bokeh" i de andre punktene.

     

    Forøvrig så var mitt bilde av edderkoppen tatt med 70-200F4 på 200mm, så jeg vet ikke helt om jeg ville kalle det makro. Grunnen til at bakgrunnen er så diffus er fordi den var langt fra edderkoppen, samt at det var blader av stort sett samme farge.

     

    Her er forøvrig et eksempel på bokeh fra canon 50mm 1.4 som har flere lameller enn 1.8.

    post-29944-1136547553_thumb.jpg

  5. Jeg har visst tråkket på noen ømme tær her...

    Har jeg ikke nevnt at dette bildet ble valgt fordi det "passet" som eksempel?

    Og ja, jeg er fornøyd med de mulighetene som denne plugin'en gir meg sammen med mitt usle kamera, som forøvrig kostet godt over 10k da jeg kjøpte "kit'et"..

    Akkurat som du sikkert er fornøyd med de mulighetene dSLR'en gir deg?

     

    Forøvrig kjøpte jeg denne plugin'en først og fremst for å bruke den på 3D-bilder. Det sparer masse rendringstid samtidig som det gir bedre resultater enn andre løsninger. Og da slipper jeg også å lage maskene selv.

     

    Kanskje vi kunne få se et eksempel på ekte bokeh fra ragamuffin?

    5389637[/snapback]

     

    Her er et eksempel på bokeh (litt i det meste laget vil kanskje noen si)

    post-29944-1136490677_thumb.jpg

  6. Når det gjelder bokeh i Photoshop er det litt mer jobb, men så er det jo veldig mye mere fleksibelt da.. Vedlagte bilde er tatt medmittførstedigitalkamera, en Olympus C-900Z i 99, og skalert ned til 50%. Originalen til venstre (ubehandlet), de i midten bruker samme masken for bokeh/blur, med 7-lammellers iris og rund iris, mens det til høyre bare bruker en helt enkelt sirkulær maske og en 5-lamellers iris.

    Alle 3 ble laget med Richard Rosenmans Depth of Field generator PRO 2.0.

    5387210[/snapback]

     

    For å være helt ærlig så er jeg langt fra imponert over den simulerte bokeh'en i eksemplet ditt.

  7. Har ikke så mye å utsette på etterbehandlingen, men synes du kunne vært heldigere med fokus. For meg ser det ut som om kameraet har fokusert nede på jakken på høyre side, og dermed er ansiktet ute av fokus. Hovedregelen for portretter er at det gjelder å ha øynene til objektet i fokus. Jeg vet ikke hvilken blenderverdi du brukte her, men vær klar over at f1.4 og opp til f2 gir deg ekstremt liten dybdeskarphet. For meg fungerer det ofte best å sette autofokus til servo fast på senterpunktet og holde øyet jeg vil ha fokus på i senter. Som regel må du da velge et litt mer spennende utsnitt etterpå, men jeg ofrer gjerne en del pixler for å få korrekt fokus.

  8. Mitt syn på et par av spørsmålene dine samt noen egne synspunkter:

     

    Les bruksanvisningen akkurat så godt at du kan justere iso, + ta brukbare bilder med manuelle instillinger. Dette trenger du å gjøre fordi du må forstå hvordan kameraet fungerer uansett om du bruker lukker- eller blenderprioritet. Du trenger også dette for å kunne velge den beste iso verdien når du bruker automatisk eksponering. Så dersom du ønsker å kunne nyttigjøre potensialet i det kraftige verktøyet du har mellom hendene så er du bare nødt til å lære hvordan det fungerer. Deretter kan du løpe ut i skogen. Ditt nye D50 er et utmerket verktøy men det krever litt egeninnsats for å få virkelig gode bilder, og dersom du ikke behersker enkelte grunnleggende ferdigheter vil det være større muligheter for at du blir skuffet over resultatet. Øvelse gjør mester.

     

    Ikke vær redd for å ta med kameraet ut i kuldegrader. Kameraet er til for at du skal bruke det. Sannsynligvis tåler det mer en du tror, men alt har selvfølgelig sine grenser. Et kamera som man er redd for å ta med i tilfelle det skulle gå i stykker er etter mitt syn et ubrukelig kamera.

     

    Bruk et UV filter dersom du føler at det er riktig. Det vil ofte gi deg "litt" dårligere bildekvalitet men vil ikke hemme deg i din prosess med å lære å ta gode bilder. Maksimalisering av bildekvalitet med objektiver til 5 sifrede priser, tidskrevende etterbehandling på pc osv kommer tidsnok allikevel, så gjør deg selv den tjenesten å glemme dette foreløpig. Forøvrig så er det beste du kan gjøre for billedkvaliteten foreløpig å bruke en skikkelig solblender på objektivet. Det hjelper virkelig.

     

    Kjøp gjerne nye objektiver som utvider mulighetene dine. Men vent litt med å erstatte de fokallengdene du allerede har. Lær å bruke kameraet først, så har du bedre grunnlag for i fremtiden å kunne bestemme hva du eventuelt "bare må ha".

  9. Synes det ser bra ut, spesielt med et par tegnestifter i forgrunnen. Det er en fin nærhet til jenta som har et skikkelig problem hun funderer på. Det eneste jeg ville sette fingeren på er at jeg kunne ønsket at bakgrunnen var litt bedre. Det ser ut som om det er et skap der som står litt på skrå. Det ville kanskje vært bedre om det sto rett eller aller helst ikke var der. Men jeg vet akkurat hvor vanskelig det er å få kontroll over situasjonen når barn er involvert. Det ser ut som om du ikke har brukt blits, og da kunne jeg kanskje ha ønsket lyset litt mer fra siden for å få frem litt mer nyanser i belysningen av ansiktet for å unngå at lyset virker for flatt.

     

    Bildet er fint og modellen er nydelig, så bare fortsett i samme spor og fyll harddisken med barndomsminner.

  10. Joda, jeg hatt sett mange diskusjoner. Men jeg lurte bare om det jeg ønsker å bruke kameraet til gjør noen alternativ bedre enn andre. Som feks så har jeg blitt anbefalt Nikons 50 mm/1,8 linse, da den i følge vedkommende vil gi mye bedre dypdeskarphet i forhold til kitlinsen...

     

    Ellers takk for svar, og beklager at jeg ikke kan så mye.....(les: ingenting)

    5272909[/snapback]

     

    Den gir nok ikke så mye mer dybdeskarphet, snarere tvert i mot. Det er muligheten til å begrense dybdeskarpheten (samt at du kan bruke kortere lukkertid) som er fordelen med et lyssterkt objektiv.

     

    Til ditt bruk tror jeg ikke du vil merke forskjeller mellom de forskjellige kamerahusene. De fleste produsentene har også objektiver med forholdsvis like egenskaper. Både Canon og Nikon har f.eks. f/1.4 og f/1.8 50 mm hvis jeg ikke husker feil. Forøvrig så ville jeg kanskje råde deg til å kjøpe enten Canon eller Nikon dersom du ikke er helt sikker på om speilrefleks er det rette for deg. Tror de er litt enklere å få solgt brukt dersom du skulle ønske det.

  11. Er det noen som har erfaring med om det lønner seg å bruke punkt-lysmåling, eller matrisemåling når man tar bilde av lyse objekter i mørke omgivelser?

     

    Tror det beste for denne typen bilder er manuelle instillinger. Dersom du vet at f.eks. månen skal være perfekt eksponert så kan du selvfølgelig bruke spot måling på den. Men da blir resten for mørkt. Med automatisk lysmåling blir som regel månen overeksponert. Forøvrig kan det også være nyttig å ta to forskjellig eksponerte bilder og leke litt i photoshop etterpå. Da kan du få både eksponerte skyer og måne.

     

    Forøvrig så synes jeg bildet var bra, men jeg ville dempet eller manipulert fargen noe. Oransje skyer minner meg alt for mye om all den heslige gatebelysningen som er rundt omkring over alt. Kunne kanskje ønsket meg månen litt mer i fokus også...

     

    Edit: Legger ved ett av mine forsøk med overeksponert måne, men med skyer.

     

    post-29944-1134066873_thumb.jpg

  12. Er imponert over den krasse tonen man tillater seg å ta når man åpenbart ikke har tilstrekkelig kunnskap om feltet man diskuterer (jepp, den var til deg foton)...

    5229591[/snapback]

     

    Wow, det var da maken til hårsår. Jeg trodde jeg bare ba om en forklaring da jeg ikke forsto det som sto i innlegget og faktisk ikke fant noe særlig ved et raskt søk. Forøvrig har jeg allerede kommentert linkene til Kristallo og lagt til et par stykker selv.

     

    Forøvrig så lærte jeg faktisk noe av det og jeg har mot til å innrømme det.

     

    Forøvrig slår vel uttalelsen din over tilbake på deg selv? Jeg synes ikke din påstand i det tidligere innlegget om at "Det at virkeligheten er diskret er jo en kjennsgjerning......." vitner om noe særlig kunnskap om det du uttaler deg om.

  13.  

    Morsomt.

     

    Her er en link til en side som omtaler et forskningsresultat fra Berkeley:

    http://www.berkeley.edu/news/media/release...superlens.shtml

     

    Fulltekst av artikkelen i Science (for de som er heldige og har tilgang):

    http://www.sciencemag.org/cgi/reprint/308/5721/534.pdf

     

    Forøvrig så er det jo litt ironisk at det er en analog avbildningsteknikk samt at man må bruke et AFM mikroskop for å se resultatet da bildet på "filmen" er like lite som motivet:p . Farger er det altså dårlig med her.

  14. Det at virkeligheten er diskret er jo en kjennsgjerning, men at virkeligheten kan approksimeres kontinuerlig for alle de formål som diskuteres her er det ingen som helst tvil om. Virkeligheten er diskret, også når du beveger armen din. Dette kommer av kvantemekanikken. Det eneste er at du ikke er i stand til å se at virkeligheten er diskret skyldes at de diskrete avstandende er så latterlig små, at ingen optikk vil være i stand til å se dem...

    Hmmm.... Er du sikker på det? Jeg var i hvertfall ikke klar over at det var en kjennsgjerning, og er helt sikker på at det ikke kommer fra kvantemekanikken i hvertfall. Det er mulig at de romlige dimensjonene er kvantisert, men foreløpig er det ingen som har klart å bevise det, og for å kunne si noe om det så må man gjøre partikkel eksperimenter med langt høyere energi enn man har muligheter til i dag eller sannsynligvis for all fremtid. Det finnes sikkert noen teorier om at den er det, men de er i hvert fall ikke testet eksperimentelt.

  15. Men skal du hevde at virkeligheten er diskret, så må du også argumentere for at når jeg beveger armen, så beveger jeg den i diskrete avstander - og det tror jeg ikke er mulig.

     

    Nei, verden er ikke nødvendigvis diskret.

     

    Men argumentet ditt er som følger:Siden lyset som kommer fra en overflate vi skal ta bilde av kommer fra en rekke kontinuerlige punkter kan vi nødvendigvis ikke sample det på en diskret sensor uten å miste informasjon.

     

    Og det er her jeg mener du tar feil fordi det faktisk er en grense for hvor stor oppløsning man kan ha med lys, begrenset av bølgelengden til lys. Derfor vil du i prinsipp kunne sample signalet perfekt nok med en diskret sensor. Og med "perfekt nok" så mener jeg at å snakke om informasjon, tilstander, basisrom osv på mikroskopisk nivå er langt utenfor interesse når det kommer til å reprodusere en 2dimensjonal projeksjon, uansett i eller ute av fokus.

  16. Det å refokusere bildet og det å rekonstruere virkeligheten er to sider av samme sak. Kan du det ene kan du det andre. Det er ekvivalente hendelser.

    Unnskyld meg, men jeg tror vel ikke helt du mener det du sier her. Igjen må jeg be deg lese den artikkelen som det referers til i trådstarten her. Mener du virkelig at siden de kan velge fokuspunkt i bildene sine så kan de rekonstruere virkeligheten? Det er jo et absurd utsagn.

     

     

    Tja, det spørs da vel hvordan du ser det det.. Selv om jeg ikke kan se punkter som er uendelig nær hverandre, betyr det ikke at jeg ikke kan plassere dem utover i et kontinuerlig plan. Det gir kun restriksjoner på hvor nærme forrige punkt jeg kan plassere neste.....

     

    Ja, og det du sier over er det nærmeste vi kommer en korrekt matematisk definisjon i denne tråden her. Definisjonen på et diskret system.

  17. Virkeligheten er ikke kontinuerlig. Siden lys har en bølgelengde på noen hundre nanometer, dvs størrelsesorden mellom 0.000001 m og 0.0000001 m så kan du ikke forvente å se noen farger på objekter som er mindre enn dette. Du kan faktisk ikke se de med lys i det hele tatt. Men for praktisk bruk så er oppløsningen på "virkeligheten" mye større en du kan fange på en fotobrikke. Men kontinuerlig er den ikke.

     

    Dette er også en halvsannhet. Det som skjer dersom man belyser et objekt med en bølgelengde større enn objektet er at lysstrålene går over i såkalte evanecente bølger hvilket faller av ekspotensielt. Med riktig detektorer kan man likevel fange opp disse bølgene og det gjøres mye forskning på akkurat det (for å få til bedre prosessering av halvledere.

     

    Kan du fortelle meg hva "evanecente" bølger er og ikke minst hva "faller av ekspotensielt" betyr? Og hva er "riktige detektorer"? Siden jeg ikke fikk noen treff på google som ga meg noen pekepinn på hvor det gjøres mye forskning på dette så kan du kanskje gi meg noen adresser til litt informasjon?

  18. Det er ikke så mye forbisnakking her. Vi har allerede fastslått matematisk at det er umulig å refokusere et vanlig bilde uten å sitte med informasjon om avstandene i motivet. Informasjonen om linsen, h(x,s) er greit, men uten å kjenne s fra v(x,s) er det umulig. Det vil mao. si at vi er nødt til å kjenne avstanden til hver enkelt del av motivet for å kunne gjenskape det. I praksis vil det si at en, dersom en sitter med et uskarpt bilde og en hvit gipsavstøpning av motivet, kunne "fargelagt det i fokus" dersom projektøren hadde rett linse. Jeg tipper det er lettere - og mer givende - å leie en kunstner.

    Les artikkelen som er bakgrunnen for trådstart her så ser du at du at den nettopp beskriver "refokusering" av et bilde, uten noen fullstendig modell for hele motivet.

    Det som ble diskutert etterpå var om det var mulig å rekonstruere slik informasjon fra en vanlig ccd eller cmos brikke.

     

    Det var konklusjon nummer en. Konklusjon nummer to var at vi likevel hadde innført feil i fargeleggingen ettersom vi får aliasingfeil og dermed uopprettelig tap av informasjon når vi tar bildet fordi virkeligheten er kontinuerlig og punktene i bildet er et endelig antall. For å kunne gjøre den reverserte fargeleggingsprosessen måtte en i såfall si at det er umulig å fargelegge mer nøyaktig enn at en har en begrenset fargeendringsrate i rom-aksen. Eller i dagligtale noe slikt som at det ikke er mulig at fargen på motivet forandrer seg med mere enn X nyanser pr. lengdeenhet (det blir litt klønete å formulere).

    Virkeligheten er ikke kontinuerlig. Siden lys har en bølgelengde på noen hundre nanometer, dvs størrelsesorden mellom 0.000001 m og 0.0000001 m så kan du ikke forvente å se noen farger på objekter som er mindre enn dette. Du kan faktisk ikke se de med lys i det hele tatt. Men for praktisk bruk så er oppløsningen på "virkeligheten" mye større en du kan fange på en fotobrikke. Men kontinuerlig er den ikke.

  19. Tror nok ikke dette er rent empirisk fra person til person. Noe "signalbehandling" foregår jo så til de grader! Faktisk foregår det en veldig rask fouriertransform, men nok om det tekniske i hodet. Når det gjelder to bilder til å detektere fase er jo dette et velkjent fenomen, dette brukes jo feks i interferrometer!

    5219700[/snapback]

     

    Et interferometer bruker informasjonen om fasen, det er riktig. Men da må lyset enten være koherent, dvs som i laserlys, eller komme fra en punktkilde, dvs som en stjerne i flere teleskop koblet sammen til et interferometer. Ingen av delene er oppfylt for et vanlig bilde tatt i dagslys.

     

    Forøvrig så er det en del som foregår i hjernen ja, men det er garantert ingen fasedeteksjon eller fouriertransformasjon. Faktisk så er øyet en forholdsvis dårlig detektor. Det er kun et meget begrenset område hvor vi egentlig ser detaljer godt, og det er kun takket være input fra hjernen (erfaring, eller empiri som du kaller det) at vi ser effekten av et "helt bilde".

  20. Vi (vel, dere.. ) snakker fortsatt om bilde tatt gjennom ei linse, eller hva? Hvordan går det med dybdeoppfatningen din når du holder for det ene øyet ditt?

    5217943[/snapback]

     

    Men det er jo nettopp det som har med fasen til lyset å gjøre. Dersom man var i stand til å måle fasen til lyset får man jo nettopp dybden. Dette gjøres i vårt hodet med 2 øyne (og hinsides rask signalprosessering). Dette innebærer at man:

     

    a) må lage detektorteknologi som registerer fasen til lyset hvilket er bortimot umulig.

    b) må benytte 2 detektorer separert i rom for å måle fasen (litt jamfør det som de har gjort i artikkelen).

    c) På et vis greie å få med fasen til lyset ved å la det gå 2 gangveier av ulik lengde. Dette er det som gjøres ved holografier som gir den "3d" effekten.

    5218811[/snapback]

     

     

    Nei, nei, dette er feil. Vi gjør ikke noe prosessering eller deteksjon av fasen til lyset i hodet våres. Våres oppfatning av 3D kommer av at vi ser to litt forskjellige bilder med høyre og venstre, samt at vi baserer oss på erfaring som forteller oss om noe er langt unna eller nært når vi fra erfaring kan si noe om ca størrelser.

     

    Og det er ikke mulig å lage informasjon om faser på en 2D ccd eller cmos slik de er i dag. Derfor mister man info når man projiserer fra 3D til 2D. At man kan lagre slik informasjon i f.eks. hologram endrer ikke egenskapene til en CCD/CMOS beregne for fotografi.

  21. Alternativ nummer 1:

    Vi tenker oss motivet lyses opp av en scanner, som scanner virkeligheten punkt for punkt. Vi vil da kunne se på linsen som en filterfunksjon for virkeligheten. Dersom linsa er i fokus, vil vi ha en impulsrespons i linsa h(x) = D(x), hvor D er Diracs deltafunksjon (Definert slik: D(x) = 1 for X=0, og 0 ellers). Vi vil da følgelig kunne tenke oss at dersom vi har tre pixler vi skal ta bilde av, en svart, en blå og en svart, vil kameraet se og lese svart,blå,svart, og avsette dette på ccden 000,008,000 - som vi er vante til. Dette tilsvarer foldingsproduktet mellom h(x) og virkeligheten, la oss kalle den v(x), og vi får da at resultatet y(x) = v(x)(*)h(x) = 000*0 + 000*0 + 000*0,000*0+008*1+000*0,000*0 + 000*0 + 000*0 = 000,008,000. (Hvor (*) tilsvarer konvolusjonstegnet)

     

    Dersom vi hadde hatt ei linse ute av fokus, som der oppe, ville vi sett at fotoaparatet hadde lest de samme prikkene som "litt blått","greit mye blått","litt blått", eller tilsvarende h(x) = 0,5D(x-1)+6/8*D(x)+0,5D(x+1), igjen tilsvarende y(x)=v(x)(*)h(x) = 000*0+000*0+008*0,5,000*0+008*8/6+000*0,008*0+000*0+000*0 = 004,006,004.

     

    Spørsmålet er da som følger: taper vi informasjon i denne prosessen? Og svaret er jeg ikke helt sikker på. Dersom vi fouriertransformerer det hele sitter vi med at Y(w)=V(w)*H(w), og vi kan rekonstruere virkeligheten ganske greit med å sette V(w) = Y(w)/H(w). Dette strider likevel mot mye av det vi kjenner fra lysbildeaparatet, hvor et bilde ute av fokus ikke kan stilles i fokus ved å stille framviseren ut av fokus.

     

    Her har du bare beskrevet at lys ute av fokus sprer seg på flere pixler og er ikke nærmere noen konklusjon. Dessuten er matematikken din feil. Diracs deltafunksjon kan kun brukes på kontinuerlige variable, og i tilfeller med diskrete pixler må du bruke Kronecker delta. Forøvrig er det egentlig det du gjør.

     

    Alternativ nummer 2:

     

    Vi kan rekonstruere et negativt resultat ved å tenke på at filmen på mange måter er en punktprøving av virkeligheten. Det er kjent at vi, dersom vi punktprøver et båndbegrenset signal med samplingrate 2

    Bm (Max båndbredde) kan rekonstruere signalet eksakt. Dersom vi ikke punktprøver signalet så ofte, vil vi slite med aliasing av signalet, og tap av informasjon.

     

    Som sagt er jeg ikke spesielt god i signalbehandling, så jeg tar mine forbehold om det følgende: Alle vet at lys er båndbegrenset oppad. Kommer vi for høyt i frekvens forlater vi det synlige spekteret. Problemet vårt er at vi her punktprøver signalet i rommet, og ikke i tid. Følgelig er basisfunksjonene i rommet ikke nødvendig vis båndbegrenset på samme måte som det enkelte lyssignalet i tidsdomenet. Om vi ser på virkeligheten som kontinuerlig, og at vi med infinitesimal nøyaktighet kan forandre fargenyanser så mye vi vil, altså at vi har uendelig mange pixler i motivet, og at vi kan forandre fargen på dem uendelig hurtig (altså at vi uavhengig kan fargelegge uendelig mange punkter i virkeligheten) er det åpenbart at "signalene rommet" ikke er båndbegrenset, og følgelig ikke kan rekonstrueres nøyaktig når de først er samplet.

     

    Jeg synes det siste avsnittet gir mest mening. Jeg håper noen som har peiling kan se over :)

     

     

    Skjønner faktisk ikke hva du forsøker å si her? Hvorfor er det snakk om å forandre farge "uendelig hurtig"? Når man tar ett bilde med en kamera sampler man ikke i tidsdomenet i det hele tatt. Det man gjør er å projisere 3D verdenen ned på en 2D brikke som sampler lysfordelingen i 2D rommet. Og derfor har du allerede kastet bort all informasjon om hvor lyset egentlig kom fra.

     

    Forøvrig så tror jeg det er like greit å la debatten ligge. Tro meg når jeg sier at dersom det hadde vært mulig å lagre 3-dimensjonal informasjon på en 2-dimensjonal brikke ved en enkel fouriertransformasjon så hadde allerede Canon og Nikon sine ingeniører gjort det.

  22. .... Det kommer jo helt an på hva man trenger. Hvis man ikke har bruk for fullformat, så er det tull å gå for et 5D fremfor D200 da D200 både gir bedre bildekvalitet (hvis man tenker på at man kan bruke 10.000 mer på optikk) og er bedre spesifisert på de fleste punkter. Man betaler godt over 10.000 kroner for selve fullformatbrikken på 5D kan det virke som... det er jo i utganspunktet en 20D med mindre forbedringer, men med fullformat.

     

    Jeg ville heller sagt: Hvem har ikke bruk for fullformat?

    Det må vel være egenskaper som bedre kontroll over støyen, større bilde i søker og eventuelt større dynamisk omfang man får med en fullformatsbrikke. Og hvem trenger ikke dette dersom man ønsker et optimalt resultat?

     

    Forøvrig så må jo billedkvaliteten etter ditt resonnement bli best med en d50 og 20.000 mer til optikk. Eller?

     

    Dessuten så synes jeg det er meningsløst å kalle en 5d for en 20d med mindre forbedringer. Det er jo praktisk talt ingenting som er likt på de kameraene annet enn navnet Canon på fronten. Nikon d200 kan derimot sammenlignes med 20d. 5d har andre egenskaper og bruksområder.

  23. Ok. Helt konkret tenker jeg på en del bilder jeg tok i sommer, på en konsert. Jeg sto helt inntil scenen, og tok bilder opp mot artistene. Problemet var at lukkertidene ble noe lange, selv på 800ISO, med det resultatet at når artistene ikke sto helt i ro, ble ting uklare. Hadde jeg kanskje undereksponert litt, hadde lukkertiden blitt kort nok til at jeg hadde unngått dette. Bildene ble i utgangspunktet litt kornete, så litt fra eller til hadde ikke gjort så mye.

     

    Tommy

    5066467[/snapback]

     

    Hvis du har et canon kamera så ville jeg brukt iso 1600 uten å bekymre meg i det hele tatt. Deretter ville jeg undereksponert ett trinn og brukt RAW format. Tror ikke det er noen særlig forskjell på å undereksponere og å gå til iso 3200. Har hørt at iso 3200 egentlig bare er en bit-shift operasjon, (kanskje derfor de kaller det "iso H"), og i så fall kan du like godt undereksponere. Med ytterligere undereksponering så går det klart ut over kvaliteten.

     

    Forøvrig så synes jeg rådet om å generelt undereksponere for å være på den sikre siden er dårlig. Dersom du brenner ting ut så er de tapt, det er riktig. Men med RAW har du en del å gå på i toppen av histogrammet også dersom du overeksponerer. Det beste rådet er å eksponere så høyt som mulig (uten å brenne ut noen av fargekanalene). Det siste er litt tricky dersom du har et kamera som kun viser luminositetshistogrammet. Sjekk ut denne artikkelen for en forklaring på hvorfor det generelt er bedre å overeksponere enn å undereksponere (selvfølgelig avhengig av at du har tigjengelig lys i det hele tatt):

     

    https://www.luminous-landscape.com/tutorial...ose-right.shtml

  24. For å komme med litt konstruktiv tilbakemelding her;-)

     

    Jeg kjørte bildet gjennom noiseninja, og det ga et resultat. Hvorvidt det er bedre eller dårligere skal jeg ikke si. Det hadde helt sikkert vært bedre å kjøre det på en fil med den originale størrelsen, men det kan kanskje gi en pekepinn på hva som er mulig. Med så høy iso er det åpenbart at det er forholdsvis lite dynamikk igjen i bildet. I tillegg så ville det vært interessant å se hvordan resultatet ble med andre lyskilder. Det er forholdsvis lite farger i det opprinnelige bildet.

    post-29944-1129799511_thumb.jpg

×
×
  • Opprett ny...