Gå til innhold

Bedre JPEG-standard klar i 2009


Anbefalte innlegg

Folkens, forklar meg en ting. I photoshop når jeg skal lagre ett bilde så tar jpeg nesten det dobbelte av plass som png når jeg lagrer med høyeste kvalitet. Selv på medium kvalitet så tar det litt mer.

 

Er dette photoshop sin feil, eller er det rett og slett jpg som er ett elendig ubrukelig format?

 

Ser folk diskuterer fargerom her. Steinmann, du er klar over at de fleste skjermer i dag (de med TN-panel og noen VA-skjermer) har 6-bit fargerom, men får til 8-bit via dithering? Det finnes og skjermer som har ekte 8-bit fargerom og som får til 12-bit via dithering (mulig det har komt ekte 12-bit skjermer, følger ikke så godt med lenger) Hvorfor i all verden innbiller du deg at du har bruk for 24-bit bilder når det ikke en gang finnes kommersielt tilgjengelige pc-skjermer for dette?

 

Har også lest på digitalversus at noen såkalte foto-eksperter ble testet på å se om de klarte å se forksjell på 8-bit og 12-bit bilder i forhold til graderinger og fargekvalitet. Ingen av de klarte å merke forskjell.

Hva som tar mest plass av jpeg og png vil jo variere enormt etter hva slags type bilde du komprimerer. Det er ikke noe problem å reprdodusere det du sier om man velger et bilde med omhu, ditto er det lett å få til det motsatte.

 

På skjermer så er det antall bits per subpixel, 8 bit på en LCD-skjerm tilsvarer 24 bit farge. At man ikke klarer å se forskjell på 8-bit og 12 bit om man regner slik er vel ikke så veldig overraksende egentlig?

 

AtW

Lenke til kommentar
Videoannonse
Annonse
Folkens, forklar meg en ting. I photoshop når jeg skal lagre ett bilde så tar jpeg nesten det dobbelte av plass som png når jeg lagrer med høyeste kvalitet. Selv på medium kvalitet så tar det litt mer.

Som ATWindsor sa så vil kompimeringen både i JPG og PNG variere med type bilde. Normalt vil et bilde med 24bit farger bli vesentlig mindre i JPG enn i PNG, selv med relativt høy JPG-kvalitet. Tok et bilde, tatt med et 10Mp kompaktkamera som var 4.22MB originalt og lagret i PNG og filen ble da 11.56 MB, mens en TIF-versjon uten komprimering ble 28.58MB.

 

Ser folk diskuterer fargerom her. Steinmann, du er klar over at de fleste skjermer i dag (de med TN-panel og noen VA-skjermer) har 6-bit fargerom, men får til 8-bit via dithering?

Fargerom har ingenting med bitdybde å gjøre, selv om det selvsagt blir relativt meningsløst å snakke om fargerom hvis bitdybden er for lav. Og som ATWindsor allerede har bemerket, 3*8 gir 24 bits, mens 6 bits pr farge gir 18 totalt.

 

Har også lest på digitalversus at noen såkalte foto-eksperter ble testet på å se om de klarte å se forksjell på 8-bit og 12-bit bilder i forhold til graderinger og fargekvalitet. Ingen av de klarte å merke forskjell.

For de fleste bildevisningsformål holder det med 24bits siden det er få output enheter som støtter mer enn dette. Det er under editering det først og fremst er viktig med mer enn 8 bits pr farge.

Endret av se#
Lenke til kommentar
Hva som tar mest plass av jpeg og png vil jo variere enormt etter hva slags type bilde du komprimerer. Det er ikke noe problem å reprdodusere det du sier om man velger et bilde med omhu, ditto er det lett å få til det motsatte.

 

Jepp, fant ut det etter å ha testet med andre bilder.

 

På skjermer så er det antall bits per subpixel, 8 bit på en LCD-skjerm tilsvarer 24 bit farge. At man ikke klarer å se forskjell på 8-bit og 12 bit om man regner slik er vel ikke så veldig overraksende egentlig?

 

Ja, selvfølgelig når jeg sier 8-bit så mener jeg per farge; rød, grønn og blå.

 

Når det gjelder forskjellen mellom 8-bit og 12-bit;

 

8-bit farger = 2^8 x 3 = 2^24 = 16.7 millioner farger

12-bit farger = 2^12 x 3 = 2^36 = 68.7 milliarder farger

 

I tillegg har 12-bit også flere toner/graderinger. Jeg vil ihvertfall si de tekniske forskjellene er eksepsjonelle, vil ikke du?

 

Fargerom har ingenting med bitdybde å gjøre, selv om det selvsagt blir relativt meningsløst å snakke om fargerom hvis bitdybden er for lav. Og som ATWindsor allerede har bemerket, 3*8 gir 24 bits, mens 6 bits pr farge gir 18 totalt.

 

Ja, fargerom er kanskje feil bruk av ord, men bitdybde bestemmer ihvertfall antall farger og toner/ graderinger som er mulig å vise.

 

For de fleste bildevisningsformål holder det med 24bits siden det er få output enheter som støtter mer enn dette. Det er under editering det først og fremst er viktig med mer enn 8 bits pr farge.

 

Tja, med tanke på banding så kan det absolutt ligge en fordel, men har min skepsis i om vi virkelig trenger mer enn 16.7 millioner farger.

Endret av Looper87
Lenke til kommentar
Knutint:

 

- Åpenhet som i en standardisert og fritt tilgjengelig på like, rettferdige vilkår. OG gratis for både sluttbrukere og produsenter.

Fair enough. Spørsmålet er kanskje om man greier å skape et format som både er teknisk sett like bra, og som har nok "push" i bransjen uten å tråkke på patenter og når ingen tjener direkte på bruk av formatet.

 

Jeg mener at lyd-communitien har greid det med FLAC. Formatet er fullt på høyde med det beste av proprietære formater, samtidig som hvem som helst kan lage implementasjoner uten å frykte advokater på nakken. Det er et åpent spørsmål om det samme er mulig med still-bilder.

- Skal Microsoft HD Photo kun brukes i kameraer? Uansett, jeg ser på gjennomsiktighet som relevant da det er nyttig for bilder i en redigeringsprosess og for bilder som skal presenteres digitalt på ulike bakgrunner.
Til presentasjon på nettet, sending via epost osv er det nok greiest å bruke jpeg. Jeg ser på formatet som et format for fotokameraer frem til redigeringsprosessen på PC er ferdig.

Motsier du ikke deg selv litt her?

 

Hvis formatet primært er for kameraer så ser jeg ingen grunn til å inkludere alpha.

- HDR er nyttig for bilder før og under redigering. Ikke så mye for presentasjonen etterpå. Med HDR har man gode muligheter til å endre hvitbalanse og eksponering (lokalt/globalt) uten at det blir veldig synlig på sluttresultatet.

Jeg kjenner godt til fordelene med HDR. Jeg påpeker bare det tilsynelatende paradoksale at man hverken trenger et "HDR-ready" format i kamera eller ved visning for å høste de viktigste fordelene med HDR.

 

Dersom kamera-produsenter og skjerm-produsenter greier å tyne fysikken slik at de gir en eller flere størrelses-ordener bedre dynamikk enn i dag, så kan vi kanskje høste full gevinst av HDR, og behøve et HDR ende-til-ende-format. Jeg ser bare ikke at det skjer i nærmeste framtid.

- 2:1 er helt greit. Jeg har nok av plass på både minnekort og harddisken. Plassen blir stadig billigere. Med tanke på overføring av bilder så har både minnekort, USB 2.0, harddisker, og lokalnettverk god nok båndbredde. Til bruk på nettet så er det litt i en gråsone siden folk har veldig forskjellig linjekapasitet og overføringsbehov.

Å finne opp "one format to rule them all" er kanskje vanskelig. Semi-proffe fotografer har på mange måter allerede talt: de som er opptatt av hver siste bit med informasjon er villige til å ta byrden med proprietære raw-formater (~2:1 kompresjon, usikkerhet rundt lesbarheten om 20 år). De som ikke er villige til det, ser ut til å være fornøyd med jpg. DNG ville som du sier i prinsippet fungere bra (hvis produsentene bare implementerte det).

 

Diskusjonen minner mye om mp3 vs flac vs ... Jeg tror også at størrelse/pris på lagring utvilker seg fortere enn det kameraprodusentene greier å øke informasjonsmengden, slik at lossless blir normen for høykvalitetsapplikasjoner selv om man greier bare kanskje 2:1 i kompresjon. Men det finnes utallige applikasjoner som ikke er høykvalitets, og det er kanskje det jpg eller jpg-lignende formater har en rolle å fylle, på samme måte som mp3 og AAC gjør det for lyd.

 

-k

Endret av knutinh
Lenke til kommentar
Folkens, forklar meg en ting. I photoshop når jeg skal lagre ett bilde så tar jpeg nesten det dobbelte av plass som png når jeg lagrer med høyeste kvalitet. Selv på medium kvalitet så tar det litt mer.

 

Er dette photoshop sin feil, eller er det rett og slett jpg som er ett elendig ubrukelig format?

JPEG er beregnet på "continous tone" naturlige bilder som skal vises til mennesker av kjøtt og blod. Til den bruken så var JPEG state of the art rundt 1990.

 

Dersom innholdet eller visningsmåten bryter med de forutsetningene så vil JPEG i varierende grad svikte. For type ikoner og vektorgrafikk med veldig begrenset fargekart og veldig skarpe kanter så er JPEG veldig dårlig, mens GIF og PNG er bedre.

Ser folk diskuterer fargerom her. Steinmann, du er klar over at de fleste skjermer i dag (de med TN-panel og noen VA-skjermer) har 6-bit fargerom, men får til 8-bit via dithering? Det finnes og skjermer som har ekte 8-bit fargerom og som får til 12-bit via dithering (mulig det har komt ekte 12-bit skjermer, følger ikke så godt med lenger)

Veldig interessant tema. Selv om panelet er begrenset til 6 bit så kan det ha en viss nytte av et 8bit signal dersom ditheringen fungerer godt (visuelt sett >6bit presisjon ved lave romlige frekvenser). CRT-skjermer har selvsagt ikke denne begrensningen, og Nvidia og ATI tilbyr visst 10-12 bit pr komponent ut over HDMI (og VGA?).

Hvorfor i all verden innbiller du deg at du har bruk for 24-bit bilder når det ikke en gang finnes kommersielt tilgjengelige pc-skjermer for dette?

Se svaret mitt over.

Har også lest på digitalversus at noen såkalte foto-eksperter ble testet på å se om de klarte å se forksjell på 8-bit og 12-bit bilder i forhold til graderinger og fargekvalitet. Ingen av de klarte å merke forskjell.

Det kan jeg godt tenke meg til. I følge [http://www.poynton.com/GammaFAQ.html] så kan man oppfatte endringer i intensitet på ca 1%, og i følge andre kilder så er mennesket i stand til å oppfatte et dynamisk område som er mange størrelsesordener større enn dagens kamera/skjerm-teknologi. Dersom man kombinerer disse to så er det lett å konkludere at for å lage et "bildegjengivelses-system" som både kan fange/gjengi all den dynamikk vi er i stand til å skille mellom, og gjengi enhver scene på en slik måte at vi garantert ikke oppfatter banding, så ville vi kreve enormt mange bit per pixel.

 

Dersom bildene man tester med har begrenset dynamikk så trenger man heller ikke så mange bit for å unngå banding. Alle bilder vi har med å gjøre i hverdagen, analoge som digitale, har begrenset dynamikk.

 

-k

Lenke til kommentar
Når det gjelder forskjellen mellom 8-bit og 12-bit;

 

8-bit farger = 2^8 x 3 = 2^24 = 16.7 millioner farger

12-bit farger = 2^12 x 3 = 2^36 = 68.7 milliarder farger

 

I tillegg har 12-bit også flere toner/graderinger. Jeg vil ihvertfall si de tekniske forskjellene er eksepsjonelle, vil ikke du?

Jeg vet ikke helt om "eksepsjonell" er ordet jeg vil bruke om den tekniske forskjellen mellom svaret på regnestykket 2^24 kontra 2^36. Spørsmålet er hvilken betydning det har for et mennesket av kjøtt og blod. Og da er det slik at forskjellen mellom 1 bit og 6 bit pr komponent er enorm, mens forskjellen mellom 6 bit og 12 bit antagelig er minimal, på tross av at den lineære økningen i "antall farger" er "eksepsjonell" som du sier.

 

Det persepsjonelt interessante er kanskje at vi har mye mer nytte av graderinger i intensitet enn i farger. Derfor sier "16 millioner farger" oss lite om banding, "256 gråtoner" er mye viktigere.

 

-k

Lenke til kommentar
DNG ville som du sier i prinsippet fungere bra (hvis produsentene bare implementerte det).

Mitt kamera gir DNG-filer rett fra kameraet. Så vidt jeg vet er det 10-20 andre kameraer som gjør det samme og antallet er økende. Men jeg skulle gjerne sett at den utviklingen gikk ennå raskere.

 

Det persepsjonelt interessante er kanskje at vi har mye mer nytte av graderinger i intensitet enn i farger. Derfor sier "16 millioner farger" oss lite om banding, "256 gråtoner" er mye viktigere.

Godt poeng! Graderinger mellom sort og en av primærfargene er også begrenset til 256 nivåer. Trinnene er i noen tilfeller for grove i tillegg til at skalaen er for kort.

Lenke til kommentar
Når det gjelder forskjellen mellom 8-bit og 12-bit;

 

8-bit farger = 2^8 x 3 = 2^24 = 16.7 millioner farger

12-bit farger = 2^12 x 3 = 2^36 = 68.7 milliarder farger

 

I tillegg har 12-bit også flere toner/graderinger. Jeg vil ihvertfall si de tekniske forskjellene er eksepsjonelle, vil ikke du?

 

Som andre er inne på, det er jo snakk om perseptuelle forskjeller her, ikek tekniske som sådan. Det ene tallet er høyere enn det andre, det er vi alle enige i, men hvor mye har det å si for mennesker?

 

AtW

Lenke til kommentar
Når det gjelder forskjellen mellom 8-bit og 12-bit;

 

8-bit farger = 2^8 x 3 = 2^24 = 16.7 millioner farger

12-bit farger = 2^12 x 3 = 2^36 = 68.7 milliarder farger

 

I tillegg har 12-bit også flere toner/graderinger. Jeg vil ihvertfall si de tekniske forskjellene er eksepsjonelle, vil ikke du?

 

Som andre er inne på, det er jo snakk om perseptuelle forskjeller her, ikek tekniske som sådan. Det ene tallet er høyere enn det andre, det er vi alle enige i, men hvor mye har det å si for mennesker?

 

AtW

 

Problemstillingen min var; eksperter klarer ikke å se forksjell i fargekvalitet og nyanser mellom 8-bit og 12-bit bilder. Det som skiller dem teknisk er:

 

8-bit: 16.7 millione farger, 256 graderinger

12-bit: 68.7 milliarderr farger, 4096 graderinger

 

Du skrev at det ikke er overraskende at man ikke klarer å se forskjell på 8-bit og 12-bit. Jeg skjønner ikke helt hvor du vil hen. De tekniske forskjellene er gigantiske og jeg tror neppe det ville utgjort noe om det var 8-bit vs. 16-bit bilder.

 

 

knutinh: Mye av det du tar opp i argumentasjonen din mot meg har jeg ikke motargumentert i det hele tatt.

Lenke til kommentar
Når det gjelder forskjellen mellom 8-bit og 12-bit;

 

8-bit farger = 2^8 x 3 = 2^24 = 16.7 millioner farger

12-bit farger = 2^12 x 3 = 2^36 = 68.7 milliarder farger

 

I tillegg har 12-bit også flere toner/graderinger. Jeg vil ihvertfall si de tekniske forskjellene er eksepsjonelle, vil ikke du?

 

Som andre er inne på, det er jo snakk om perseptuelle forskjeller her, ikek tekniske som sådan. Det ene tallet er høyere enn det andre, det er vi alle enige i, men hvor mye har det å si for mennesker?

 

AtW

 

Problemstillingen min var; eksperter klarer ikke å se forksjell i fargekvalitet og nyanser mellom 8-bit og 12-bit bilder. Det som skiller dem teknisk er:

 

8-bit: 16.7 millione farger, 256 graderinger

12-bit: 68.7 milliarderr farger, 4096 graderinger

 

Du skrev at det ikke er overraskende at man ikke klarer å se forskjell på 8-bit og 12-bit. Jeg skjønner ikke helt hvor du vil hen. De tekniske forskjellene er gigantiske og jeg tror neppe det ville utgjort noe om det var 8-bit vs. 16-bit bilder.

 

 

knutinh: Mye av det du tar opp i argumentasjonen din mot meg har jeg ikke motargumentert i det hele tatt.

 

Det er ikke så sjokkerende at det ofte er nok med 16.7 millioner farger. Det er mange farger, og øyet kan ikke skille mellom evig mange farger.

 

AtW

Lenke til kommentar
Når det gjelder forskjellen mellom 8-bit og 12-bit;

 

8-bit farger = 2^8 x 3 = 2^24 = 16.7 millioner farger

12-bit farger = 2^12 x 3 = 2^36 = 68.7 milliarder farger

 

I tillegg har 12-bit også flere toner/graderinger. Jeg vil ihvertfall si de tekniske forskjellene er eksepsjonelle, vil ikke du?

 

Som andre er inne på, det er jo snakk om perseptuelle forskjeller her, ikek tekniske som sådan. Det ene tallet er høyere enn det andre, det er vi alle enige i, men hvor mye har det å si for mennesker?

 

AtW

 

Problemstillingen min var; eksperter klarer ikke å se forksjell i fargekvalitet og nyanser mellom 8-bit og 12-bit bilder. Det som skiller dem teknisk er:

 

8-bit: 16.7 millione farger, 256 graderinger

12-bit: 68.7 milliarderr farger, 4096 graderinger

 

Du skrev at det ikke er overraskende at man ikke klarer å se forskjell på 8-bit og 12-bit. Jeg skjønner ikke helt hvor du vil hen. De tekniske forskjellene er gigantiske og jeg tror neppe det ville utgjort noe om det var 8-bit vs. 16-bit bilder.

 

 

knutinh: Mye av det du tar opp i argumentasjonen din mot meg har jeg ikke motargumentert i det hele tatt.

 

Det er ikke så sjokkerende at det ofte er nok med 16.7 millioner farger. Det er mange farger, og øyet kan ikke skille mellom evig mange farger.

 

AtW

 

Ja, jeg mener jo også at 16.7 millioner farger er nok, men merk deg at de ekspertene som ble testet på digitalversus (finner ikke artikkelen) heller ikke så forskjeller på nyanser mellom 8-bit og 12-bit bilder, noe som kanskje burde vært mulig. 256 nyanser fra mørkt til hvitt i en farge ser ut til å være bra nok det også for det menneskelige øyne. Mulig folk som redigerer bilder og slikt har bruk for flere graderinger.

Lenke til kommentar
Problemstillingen min var; eksperter klarer ikke å se forksjell i fargekvalitet og nyanser mellom 8-bit og 12-bit bilder. Det som skiller dem teknisk er:

 

8-bit: 16.7 millione farger, 256 graderinger

12-bit: 68.7 milliarderr farger, 4096 graderinger

 

Du skrev at det ikke er overraskende at man ikke klarer å se forskjell på 8-bit og 12-bit. Jeg skjønner ikke helt hvor du vil hen. De tekniske forskjellene er gigantiske og jeg tror neppe det ville utgjort noe om det var 8-bit vs. 16-bit bilder.

 

 

knutinh: Mye av det du tar opp i argumentasjonen din mot meg har jeg ikke motargumentert i det hele tatt.

Hvis jeg forstår deg rett så argumenterer du mot at vi kan nyttiggjøre oss mer enn 8 bit per komponent ved å henvise til en ikke navngitt undersøkelse hvor eksperter ikke kunne skille mellom 8 og 12 bit.

 

Min mot-argumentasjon er at så lenge vi ikke har tilgang på denne undersøkelsen, og ikke vet hvilket dynamisk område som ble presentert så er det vanskelig å mene noe spesielt om den. Jeg er helt enig med dem som sier at dersom man presenterer dagens bilder, alt annet likt, men med 12 i stedetfor 8 bit pr komponent for redusert gradering så vil den perseptuelle effekten antagelig være minimal eller null i de fleste tilfeller.

 

Det betyr ikke nødvendigvis at mennesket ikke er i stand til å nyttiggjøre seg 10 eller 100 bit per komponent, men at vi må ha mer dynamisk område før behovet gjør seg gjeldende. Dersom vi tar linken jeg henviste til for god fisk så trenger man et nytt steg for hver gang man øker intensiteten med ca 1% for å være noenlunde sikker på å unngå banding, eller 9 bit (ulineært fordelt med gamma) for en kontrast på 100:1.

http://www.poynton.com/PDFs/GammaFAQ.pdf

At a particular level of adaptation, human vision responds to about a

hundred-to-one contrast ratio of intensity from white to black. Call these

intensities 100 and 1. Within this range, vision can detect that two intensi-

ties are different if the ratio between them exceeds about 1.01, corre-

sponding to a contrast sensitivity of one percent

...

If you use nonlinear coding, then the 1.01 “delta” required at the black

end of the scale applies as a ratio, not an absolute increment, and

progresses like compound interest up to white. This results in about 460

codes, or about nine bits per component. Eight bits, nonlinearly coded

according to Rec. 709, is sufficient for broadcast-quality digital television

at a contrast ratio of about 50:1.

 

Dersom man snakker om bilder som skal etterbehandles (som de ut av kamera) så er det naturligvis ingen grenser for hvor mange effektive bit man kunne ønske seg - alt avhengog av hvor drastisk photoshoppingen er. Det er en annen diskusjon enn "hvor mange bit bør det være i bilder som jeg skal titte på?"

 

-k

Endret av knutinh
Lenke til kommentar
Ja, jeg mener jo også at 16.7 millioner farger er nok, men merk deg at de ekspertene som ble testet på digitalversus (finner ikke artikkelen) heller ikke så forskjeller på nyanser mellom 8-bit og 12-bit bilder, noe som kanskje burde vært mulig. 256 nyanser fra mørkt til hvitt i en farge ser ut til å være bra nok det også for det menneskelige øyne. Mulig folk som redigerer bilder og slikt har bruk for flere graderinger.

 

Jeg tipper det har endel med forholdene rundt undersøkelsen. Jeg er ikke så sikker på at det er nok i alle tilfeller.

 

AtW

Lenke til kommentar
×
×
  • Opprett ny...