Gå til innhold

"Falske" megapiksler?


Anbefalte innlegg

Nå har jeg sett på testbildet forstørret med bicubic smoother, og jeg synes resultatet er merkbart dårligere enn standard bicubic. Jeg legger til linker til eksempelfilene på artikkelens sisteside.

 

Noen andre som har lyst til å ta en titt, evt forstørre utgangsfilen, og si hva de mener?

Lenke til kommentar
Videoannonse
Annonse
Noen programmer påstår å kunne forstørre et bilde betraktelig uten at det går ut over kvaliteten. Stemmer det? Akam har testet noen kandidater.

 

 

Men hva med Corel Paint Shop Pro?

Det er vel ennå noen som bruker dette programmet som en fattigmannsversjon av Photoshop, selv om Elements er såpass billig...

 

Bare lurer jeg... :blush:

Lenke til kommentar
Au, der røk du rett i fella!

 

Nei, dobbelt så mange punkter gir ikke dobbelt så høy oppløsning.

 

Oppløsning sier noe om hvilke detaljer du kan se.

 

Her hjelper det antakeligvis å ha hatt noe med optikk eller også astronomi å gjøre før; man kan snakke om oppløsning i buegrader (eller bueminutter og buesekunder).

 

Da blir det opplagt at det er antall pixels i én dimensjon som avgjør oppløsningen.

Ja, du har helt rett her... Har erfaring både fra optikk og astronomi, men gikk på en glipp her.
Du trenger altså fire ganger så mange pixels for å doble oppløsningen. Den måten du tenker på, gjør at du blir lurt; ditt nye 10 MPx-kamera vil ikke vise deg halvparten så store detaljer som ditt gamle 5 MPx-kamera, men derimot vil det gjøre det i forhold til det mye eldre 2,5 MPX-kameraet.
Det blir flisespikkeri, men detaljene blir halvparten så store, hvis du ser på flaten... Jeg tror både du og jeg egentlig vet det, så jeg gidder ikke dvele med det.

 

Siden regner jeg med at grafisk bransje har adoptert denne tolkningen, selv om den matematisk ikke er helt korrekt, som Aetius sier.

Matematikk er et verktøy. Begge tolkninger er "matematisk korrekte".

Sant nok, men det blir et spørsmål om man dobler bildeflaten eller oppløsningen. For de fleste er det ganske klart at et bilde skrevet ut i papirstørrelsen A3 er dobbelt så stort som et i A4, selv om oppløsningen ikke er den doble. Det er dog ikke like opplagt for de fleste at om man dobler oppløsningen, blir utskriften i A2, altså fire ganger så stort som utgangspunktet A4.

 

Det verste er at det i det hele tatt skal være tvil om terminologi.

 

Når da Akam og du bidrar til å så tvil om etablert terminologi ved å spre en alternativ terminologi uten å opplyse om det, så blir folk forvirret, og vil ha vansker med å orientere seg.

Jeg ikke bidratt med spredning av noen alternativ terminologi i det hele tatt - jeg har bare uttrykt forståelse for at det er mulig å blande dem. Konklusjonen vi trekker - og som jeg synes Aetius bør få med seg - er at forstørrelse i optisk/grafisk bransje refererer til oppløsning - ikke bildeflate.

 

Da gjelder toralfsan sin påstand om at skalering er lineær - skaleringen av oppløsning er lineær, mens skalering av bildeflate er og blir kvadratisk...

Lenke til kommentar

Jeg gir meg for overmakten og har oppdatert artikkelen og endret 4x til 2x og 16x til 4x. Jeg er fremdeles uenig, rent matematisk, men det er selvsagt i vår interesse at flest mulig av våre lesere ikke skal misforstå hva jeg/vi mener. :) Jeg lar derfor avsnittet på førstesiden der de nøyaktige bildestørrelsene angis piksel for piksel, stå.

Lenke til kommentar
Nå har jeg sett på testbildet forstørret med bicubic smoother, og jeg synes resultatet er merkbart dårligere enn standard bicubic. Jeg legger til linker til eksempelfilene på artikkelens sisteside.

 

Noen andre som har lyst til å ta en titt, evt forstørre utgangsfilen, og si hva de mener?

7243798[/snapback]

 

 

Bicubic Smoother er beregnet på en arbeidsflyt med et minimum av etterbehandling. Med Smoother må du kompensere med oppskarping i etterkant, og utgangspunktet må være en fil helt uten oppskarping (eks. en RAW-fil konvertert med null oppskarping). En JPEG-fil tatt med standard JPEG-innstillng på EOS 5D er i prinsippet allerede ødelagt som kandidat.

 

Joda, det er litt omstendelig, men sluttresultatet har bedre potensial fra Bicubic Smoother.

 

Vi testet dette grundig i Fotografi for vel ett år siden, og kom til at Photoshop med Bicubic Smoother ga bedre eller like gode resultater som noen spesialprogramvare. Da testet vi ikke Genuine Fractals, men har i ettertid sett at dette gir noe bedre resultater for objekter med lav oppløsning (eks. pakninger o.l. med mange rette linjer), men dårligere med naturlige motiver (natur, portretter etc.).

 

Vi testet heller ikke større forstørrelser enn 2x (200%). De forsøkene vi gjorde med større forstørrelser ga resultater vi ikke syntes det var verd å publisere.

Lenke til kommentar
Jeg gir meg for overmakten og har oppdatert artikkelen og endret 4x til 2x og 16x til 4x. Jeg er fremdeles uenig, rent matematisk,

Hvis du leser det jeg har skrevet om forstørrelse referert til oppløsning (etter en liten oppfriskning/påminner fra dios) vs. bildeflate, er du antakelig enig også matematisk :o)
Lenke til kommentar

Bildene i testen kom fra en PNG-fil laget fra en RAW-fil fra EOS 5D, med 80% oppskarping i Adobe Camera RAW. Det ble gjort slik for å skape et så likt sammenligningsgrunnlag som mulig for de ulike programmene.

 

Man kan nok selvsagt få bedre resultater ved å "holde prosessen i hånden" hele veien, men da ryker sammenligninggrunnlaget i stor grad og subjektive forskjeller vil snike seg inn. Vi valgte å gjøre det slik for å presentere leserne med så entydige resultater som mulig.

 

> Bicubic Smoother er beregnet på en arbeidsflyt med et minimum

> av etterbehandling. Med Smoother må du kompensere med oppskarping

> i etterkant, og utgangspunktet må være en fil helt uten oppskarping

 

Her sier du deg selv imot, Toralf. Jeg går ut i fra at dette er en tyrkleif og at du mener "Bicubic er beregnet på en arbeidsflyt...".

 

Dette føyer seg pent inn i det vi har diskutert tidligere, mht om man prioriterer sammenligningsgrunnlag eller optimale resultater.

Lenke til kommentar
> Bicubic Smoother er beregnet på en arbeidsflyt med et minimum

> av etterbehandling. Med Smoother må du kompensere med oppskarping

> i etterkant, og utgangspunktet må være en fil helt uten oppskarping

 

Her sier du deg selv imot, Toralf. Jeg går ut i fra at dette er en tyrkleif og at du mener "Bicubic er beregnet på en arbeidsflyt...".

Jeg tror det han mener er at den er beregnet på arbeidsflyt for batch-prosessering, med et minimum av manuell håndtering av bildene (etterbehandling), men er enig i at det var litt uheldig formulert ja...
Lenke til kommentar
> Bicubic Smoother er beregnet på en arbeidsflyt med et minimum

> av etterbehandling. Med Smoother må du kompensere med oppskarping

> i etterkant, og utgangspunktet må være en fil helt uten oppskarping

 

Her sier du deg selv imot, Toralf. Jeg går ut i fra at dette er en tyrkleif og at du mener "Bicubic er beregnet på en arbeidsflyt...".

 

Nei, jeg mener det jeg skriver. Med Bicubic Smoother må du foreta litt oppskarping med dertil egnede verktøy i etterkant, ellers ser bilddet for uskarpt og for lite detaljert ut. Men på denne måten er potensialet også større for et godt sluttresultat, i hvert fall opp til rundt 200 %.

 

Når dere starter med oppskarping, blir ethvert forsøk på oppskalering problematisk. Jeg tipper det står i bruksanvsningene på seriøse programmer som f.eks. Genuine Fractals nettopp at utgangspunktet bør være helt uten oppskarping.

Endret av toralfsan
Lenke til kommentar
Bicubic Smoother er beregnet på en arbeidsflyt med et minimum av etterbehandling.

Her sier du deg selv imot, Toralf. Jeg går ut i fra at dette er en tyrkleif og at du mener "Bicubic er beregnet på en arbeidsflyt...".

Nei, jeg mener det jeg skriver.

Han mener vel at det er en motsigelse at den er beregnet for et minimum av etterbehandling, når det første du må gjøre er nettopp - etterbehandling... Jeg regner med at det du mener er at den er beregnet på et minimum av manuell etterbehandling, bilde for bilde... Mulig jeg tar feil, dog...
Lenke til kommentar
Jeg tror det han mener er at den er beregnet på arbeidsflyt for batch-prosessering, med et minimum av manuell håndtering av bildene (etterbehandling), men er enig i at det var litt uheldig formulert ja...

 

Som nevnt ovenfor, så har jeg skrevet akkurat det jeg mener. Batch-prosessering eller ikke - bildene gis et minimum av oppskarping i etterkant. Uten litt oppskarping blir de ikke "stingy nok", og virker softere enn med kun "Bicubic". Det går vel ellers fram av benevnelsen.

Lenke til kommentar
Som nevnt ovenfor, så har jeg skrevet akkurat det jeg mener. Batch-prosessering eller ikke - bildene gis et minimum av oppskarping i etterkant. Uten litt oppskarping blir de ikke "stingy nok", og virker softere enn med kun "Bicubic". Det går vel ellers fram av benevnelsen.

Unntaket er kanskje dersom man skal bruke dette sammen med spesialiserte plugins for oppskarping og støyfjerning; da må man forholde seg til begrepet "input sharpening" også, som tar hensyn til å rette opp litt av det som har skjedd med antialiasfilteret over bildebrikken.

 

Samspillet mellom slike ting er ganske komplekst.

 

Det er vel ca. her jeg skulle gravd fram linker til gamle diskusjoner på Luminous Landscapes og Rob Galbraiths forum, hvor erfarne proffer forteller hva de gjør for å oppnå best resultat, men jeg har ikke lagret disse linkene.

Lenke til kommentar

Jeg tenkte jeg skulle forsøke meg på å se om en av metodene jeg har hørt om også fungerte greit, men sliter med å reprodusere metodene til akam.no.

 

Problemet er i korthet at prosessen er beskrevet som "reduserte bildet til en brøkdedel av størrelsen", men det står ikke hvor stor denne brøkdelen er.

 

(det er forresten en trykkfeil der oppe, "brøkdedel")

Lenke til kommentar

Som matematiker føler jeg meg litt kallet til å skrive noe her. Jeg ser diskusjonen til nå stort sett har dreid seg om hva 2x forstørrelse er for noe. Matematikken sier ingenting om hva som riktig, her er det kun snakk om å velge en av måtene å regne på og forholde seg (selvsagt korrekt) til den. Det er absolutt hensiktsmessig å følge samme konvensjon som alle rundt seg, så når toralfsan sier hva som er standard i grafisk/optisk bransje, så er det et veldig stort poeng å følge det.

 

Men, det jeg heller vil angripe er artikkelens problemstilling. Det høres ut som om noen folk kan tro at det kan ligge mer informasjon i en piksel enn kun en fargeverdi. Og at man med riktig programvare kan hente fram mer informasjon i bildet.

 

Er det noen som tror at "den beste" oppskaleringsalgoritmen gir mer informasjon i bildet enn "nearest neighbour"?

 

Termodynamikkens lover sier utvilsomt nei. Vil man kverulere litt over dette, så kan man si at noe informasjon blir lagt inn i bildet via algoritmen. Det igjen betyr at algoritmen må være spesialsydd for en bestemt type (eller sett med typer bilder) som den virker for, dvs. den kan gjøre velbegrunnede gjett på hva som var den opprinnelige informasjonen.

 

Dette betyr igjen at det vil være noen bildetyper/motiv som algoritmen igjen virker dårlige på, så det eneste en slik undersøkelse som dette her kan påvise, er hva slags bildetype de og de algoritmene virker bra på. I tillegg er algoritmene giret mot å gjøre det lettest mulig for hjernen vår å absorbere informasjonen kjappest mulig.

 

Jeg vil påstå at den mest interessante informasjonen en slik undersøkelse kunne gitt oss, var hvilke motiv algoritmene ikke virker bra på, å gå rundt og tro at det kan finnes en "beste" oppskaleringsalgoritme for alle mulige formål vil en gang bære galt avsted.

 

Som nevnt her i tråden så er algoritmevalget avhengig av hvorhen i arbeidsflyten man befinner seg, og igjen så er det viktig om kunnskap om hvordan hver enkelt algoritmen virker og når den ikke virker (det siste glemmes ofte, men er ofte det viktigste).

Lenke til kommentar

Men,  det jeg heller vil angripe er artikkelens problemstilling. Det høres ut som om noen folk kan tro at det kan ligge mer informasjon i en piksel enn kun en fargeverdi. Og at man med riktig programvare kan hente fram mer informasjon i bildet.

 

Er det noen som tror at "den beste"  oppskaleringsalgoritmen gir mer informasjon i bildet enn "nearest neighbour"?

 

Termodynamikkens lover sier utvilsomt nei. Vil man kverulere litt over dette, så kan man si at noe informasjon blir lagt inn i bildet via algoritmen. Det igjen betyr at algoritmen må være spesialsydd for en bestemt type (eller sett med typer bilder) som den virker for, dvs. den kan gjøre velbegrunnede gjett på hva som var den opprinnelige informasjonen.

Her har du en del skjulte antakelser som ligger bak dine påstander.

 

En av dem ser ut til å være at lys-verdien i en pixel ikke kan inneholde informasjon som er relevant i forhold til nabo-pixels.

 

Det er feil.

 

Stikkord er:

 

- interferometri

- diffraksjon

 

Fordi verden ikke er delt inn i pixels i seg selv, så vil en detalj, f.eks. i form av et hårstrå, kunne være mindre enn det separate pixels kan fremstille.

 

La oss fortsette med hårstrå-eksempelet.

 

For at et hårstrå som ligger 45 grader i forhold til X- og Y-aksene på en bildebrikke skal kunne vises som noe annet enn en svært hakkete greie (aliasing), så har man innført et filter foran sensoren som motvirker dette, og som sprer lyset som er reflektert fra hårstrået over flere pixels enn de som kanskje egentlig burde vært berørt. Dette kalles et antialias-filter.

 

Når man så senere foretar oppskarping som tar hensyn til dette filteret, så benytter man seg av informasjon i nærliggende pixels for å endre på informasjonen i andre pixels. Man ser på bildet som større sammenhengende områder istedenfor enkeltelementer.

Lenke til kommentar
Hvis du ser på første side, så står størrelsene angitt der i antall piksler. ;)

Aha, så det er det disse betyr.

 

Hvorfor ikke bare skrive noe i denne duren, som gjør det klart hva det er dere har gjort?

 

"Vi tok originalbildet på 2912x4368 pixels, og laget to forminskede kopier, en på henholdsvis 768x1092 pixels og en på 1456x2184 pixels. Vi brukte deretter disse forminskede versjonene for å teste hvor nær originalbildet forstørrelsen av disse kunne komme."

 

For øvrig er det rare dimensjoner dere har valgt; 768 er 26,4% av bredden til bildet, mens 1092 er 25%, så det er jo ikke en lineær skalering dere har gjort, men derimot noe som forvrenger bildet. For å ha en lineær skalering, så burde det vært 728x1092. Eller er det en trykkfeil?

Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...