Gå til innhold

Desto større originalen er før resize til en bestemt størrelse, desto dårligere kvalitet?


Anbefalte innlegg

Debatten går varm i et annet forum om hvor vidt nedskalering av bilder i form av resize senker kvaliteten i forhold til original størrelse. Det vil si at noen mener at hvis du skal resize til for eksempel 1024 x 768 eller lignende, blir den endelige kvaliteten dårligere desto større originalen er i utgangspunktet. Altså mer du resizer et bilde, desto lavere blir kvaliteten. Andre igjen mener at det ikke spiller noen rolle hvor stor originalen er, fordi grafikkprogrammet må uansett resample bildet om du så resizer 1 % eller 75 %. og at det er algoritmen som avgjør kvaliteten uansett størrelse før og etter. Hva mener dere?

 

NB! Dette gjelder kun forminsking, ikke forstørrelse!

Lenke til kommentar
Videoannonse
Annonse

Dette er helt feil. Gitt at man bruker fornuftige nedsamplingsteknikker, så får man ikke denne effekten, heller tvert imot. Skal man klare få til noen sånne effekter som at kvaliteten går ned, gjør man noe sært, eller har noen sære forutsetninger, eller et sært mål på kvalitet.

Lenke til kommentar

Dette er jo et interessant spørsmål, og jeg har ikke noe fasitsvar, men sier litt likevel.

 

For det første, hvis vi tar utgangspunkt i at bildet kommer fra en Bayersensor så har et 1024 x 768 bilde ikke fullt så mye reell informasjon siden hvert punkt inneholder to interpolerte farger. Så en viss nedsampling med en bra algoritme vil definitivt forbedre kvaliteten, men at det går en grense noe sted hvor det ikke er mer å hente virker sannsynlig.

 

At kvaliteten skulle bli dårligere igjen viss utgangspunktet har ennå høyere oppløsning virker ikke så sannsynlig, men her må nok noen med bra matte og bildebehandlingskunnskaper inn for å si noe sikkert.

 

Gitt at originalen har støy vil det også være fordel med vesentlig høyere origianlopplsøning. Da kan man kjøre støyfjerning før nedsampling og detaljene som forsvinner i støyfjerningen mister sin betyndnng ved nedsampling. Nedsamplinen i seg selv vil jo også til en viss grad eliminere støy, litt avhengig av algoritmen som brukes.

 

Forøvrig bør all nedsampling (og oppsampling) normalt avsluttes med en oppskarping fordi interpoleringen til en viss grad vil "ødelegge" kanter, hvis man ikke har et verktøy som fikser dette automatisk.

Lenke til kommentar
For det første, hvis vi tar utgangspunkt i at bildet kommer fra en Bayersensor så har et 1024 x 768 bilde ikke fullt så mye reell informasjon siden hvert punkt inneholder to interpolerte farger. Så en viss nedsampling med en bra algoritme vil definitivt forbedre kvaliteten, men at det går en grense noe

sted hvor det ikke er mer å hente virker sannsynlig.

 

Hvis du kan forbedre kvalitet fra Bayersensoren med nedsampling, så gjør du et Bayer-triks i tillegg til nedsamplingen. Da kan du gjøre samme øvelse uten å gjøre selve nedsamplingssteget, og så kan du etterpå argumentere for at nedsamplingen ikke gjør noe som helst med informasjonsmengden i bildet (hvis man er varsom med nedsamplingen), og så ender du opp med *identisk* kvalitet før og etter nedsampling (her må man også velge et passende mål for kvalitet).

 

At kvaliteten skulle bli dårligere igjen viss utgangspunktet har ennå høyere oppløsning virker ikke så sannsynlig, men her må nok noen med bra matte og bildebehandlingskunnskaper inn for å si noe sikkert.

 

Jeg sier det sikkert (og jeg kan matten min). Man må definere noe sært (og trolig uinteressant) for å få til noe annet (akkurat dét påstår jeg ikke er umulig).

Lenke til kommentar
Hvis du kan forbedre kvalitet fra Bayersensoren med nedsampling, så gjør du et Bayer-triks i tillegg til nedsamplingen. Da kan du gjøre samme øvelse uten å gjøre selve nedsamplingssteget, og så kan du etterpå argumentere for at nedsamplingen ikke gjør noe som helst med informasjonsmengden i bildet (hvis man er varsom med nedsamplingen), og så ender du opp med *identisk* kvalitet før og etter nedsampling (her må man også velge et passende mål for kvalitet).

 

Kan du si litt mer om dette? Det jeg forestiller meg er hvis du har for eksempel 4x oppløsning (2x lineært) som utgangspunkt så har du 4 piksler for hvert punkt i nedsamplet bilde. Hvert av utgangspunktene har en reell måleverdi, og to interpolerte. Dvs. at det du faktisk har et reelt punkt for hver farge i utgangsbildet (pluss litt til).

 

Hvis det var RAW-piksler i utgangspunktet vilde det jo vært realtivt enkelt å slå sammen de fire piklsene til en ny uten interpolering (vel, du måtte kanskje gjøre noe med den fjerde pikselen, for eksempel ta snittet med den med samme farge).

 

I et JPG-bilde er det jo allerede kjørt en demosaik, og her er det ikke klart for meg hva som skjer videre. Vil man ved en nedsampling greie å "få tilbake" informasjonen (ble ikke helt klart det her). For meg virker det logisk at hvis man slår sammen fire interpolerte piklser (hvis man ser på en farge av gangen) ikke mister like mye presision som man ville gjort hvis alle pikslene hadde hatt "perfekt" info i utgangspunktet.

Lenke til kommentar

Jeg er ikke helt med på hva du lurer på.

 

Det kan muligens oppklare litt ved at jeg påstår at Bayer-interpoleringen og nedsampling er to helt uavhengige ting, selv om de ofte er sammenvevd i implementasjonen.

 

Så egenskapene til Bayer-interpoleringen kan vi diskutere separat fra egenskapene til nedsamplingen.

Lenke til kommentar
Jeg er ikke helt med på hva du lurer på.

 

Nei, det var kanskje et litt uklart spørsmål, men kommer ikke på noen bedre måte å si det på. Har forøvrig ganske bra forståelse av både Bayerinterpolering og nedsampling så jeg blander ikke disse sammen.

 

Men Bayerinterpolasjon er så vidt jeg vet en ikke reverserbar prosesess, så spørmålet går litt på om det ville vært en fordel å nedsample fra RAW-data fremfor å nedsample fra Bayerinterpolerte data, eller om faktorenes orden er likegyldig.

Lenke til kommentar
Jeg er ikke helt med på hva du lurer på.

Men Bayerinterpolasjon er så vidt jeg vet en ikke reverserbar prosesess, så spørmålet går litt på om det ville vært en fordel å nedsample fra RAW-data fremfor å nedsample fra Bayerinterpolerte data, eller om faktorenes orden er likegyldig.

Bayer-interpolasjon går fra fire frihetsgrader (fordelt på fire piksler) til 12 frihetsgrader (fordelt på fire piksler). Fra disse 12 verdiene kan du finne de originale 4, men det å velge de 12 verdiene fra de første 4 er ikke entydig (dermed har man mange algoritmevalg). Nedsampler man etterpå de fire pikslene til 1 piksel har man tre frihetsgrader. De fire originale pikslene fra sensoren inneholder altså 33% mer informasjon enn den ene pikselen du da ender opp med.

 

Nedsampling før Bayer-interpolasjon er ikke en problemstilling jeg har tenkt på før (det skal jeg innrømme). Men da må du nedsample fargegitteret samtidig for å klare gi mening til de nedsamplede verdiene. Jeg klarer ikke se for meg en metode som gjør dette lurt. Jeg er sikker på at du ikke kan gjøre bedre enn Bayer først, og så nedsample, men du må sannsynligvis tenke hardt for å klare like bra.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...