Gå til innhold

Guide: Når fargene blir flere


Anbefalte innlegg

Videoannonse
Annonse

Mange digitale speilreflekskamera tar bilder i 16bit depth, så en skjerm som kan vise alle fargene i bildet ditt hadde vært digg å redigere bilder på, spesielt med tanke på at en del printere kan gjengi flere farger enn vanlige skjermer.

 

Edit: Må legge til at jeg også synes Audiovisuelt endelig starter å bli interresant! Fortsett i denne retningen. :)

Endret av Überadri
Lenke til kommentar

Ooohh, aaaahh!

 

Hadde det ikke vært for LCD, så hadde vi ikke hatt 24-bit-tøyset.

 

Spill brukte 32-bits farger på midten av nittitallet, og CRT-skjermer kunne via D-sub kjøre ~10 bit per pixel (og mer, i teorien) for leeeeenge siden. Plasmaskjermer har for øvrig hatt muligheten for flere farger i lengre tid (så vidt jeg vet). Ikke at det har vært noen vits, i og med at LCD-skrapet har satt standarden.

Endret av CAT-scan
Lenke til kommentar

Det store problemet med lav farge gradering har for det meste ligget i fremviserene, både LCD, Plasma og Prosjektorer.

 

Det ses lettes hvis man f.eks. ser en lyspære på skjermen, og man rundt den ser ringer av forskjellige farger, som egentlig skulle ha vært en sammenhengende farge foranding. Det har vært lettest å se dette i grå farger.

 

Problemet har ikke vært at man ikke har muligheten for nok farger, men at fremviser ikke har greid å vise de man allerede har. Selv med 8-bit, så har ikke TVene greid å få frem det riktige. Men i dag er problemet for det meste borte, og det har ikke noe med Deep Color, men at det er gjort fremskritt med fremviserene. For hvis ikke man får Deep Color inn så blir det heller ikke brukt av TVen.

 

2 gode eksempler på tortur filmer (DVD) for å se om utstyret takler graderinger godt nok er "Hellboy" og "The Ring". På starten av "Hellboy" så går kamera i gjennom mørke skyer, og i "The Ring" er det fly bildene over øyen hun kommer til, hvor det er mye tåke, samt matt gråaktig grønn natur. Begge disse scenene har for det meste sett ut som dårlig oppløst spill grafikk, med blokkete farger. Husker jeg så "Hellboy" hos en kompis med JVC plasma. Det var faktisk helt umulig å se noe detaljer i skyene.

 

Når jeg i dag setter disse på min 2009 Sony LCD TV (52W5500), så er dette så å si ikke noe problem mer. Det eneste problemet som gjenstår er faktisk oppskaleringen av DVD, hvor selv ikke toppmodellen til Sony gjør jobben bra nok. (Takk til Oppo for skikkelig skalering).

 

 

 

For Deep Color vil nok ta vekk siste bit av graderings problemene. Men jeg ser at den bemerkelsen nevnes overalt, både nettet og i fagblader, som ett pluss at de har det. Men igjen, så lenge det ikke finnes innhold som kan utnytte dette (Utenom det som nevnes, videokamera og stillbilder) så er dette faktisk ikke noe å henge seg opp i. DVD, Blu-ray og foreløpig spill benytter dette ikke.

 

Det har vel vært nevnt at det muligens kommer til PS3, og at det skal være mulig å bygge inn Deep Color slik som DTS gjør med sitt Master Audio lydspor. Å ha en kjerne med standard lyd, og ha en utvidelse for HD lyden. Dermed kan de legge det vanlige 24-bit fargespekteret som kjerne, og påbygge med Deep Color for å utnytte det der det er.

 

Men i ren praksis så kommer vi ikke til å se noe fysisk til dette før i neste generasjon spillkonsoll og hjemmeunderholdnings format. Men har man da bruk for Deep Color når oppløsningen blir høy nok?

 

Det kan vel sammenlignes med PC grafikk og anti-aliasing. Man bruker anti-aliasing for å bli kvitt sagtenne på rette streker, som ikke ligger rett med pikslene. Dette spiser MYE maskinkraft. Men ved å stille opp oppløsningen, så forsvinner mye av problemet av seg selv, og man trenger ikke bruke mye AA for å få god nok grafikk.

Lenke til kommentar
Mange digitale speilreflekskamera tar bilder i 16bit depth, så en skjerm som kan vise alle fargene i bildet ditt hadde vært digg å redigere bilder på, spesielt med tanke på at en del printere kan gjengi flere farger enn vanlige skjermer.

Jepp, helt enig. Slik jeg ser det er det mer nyttig i redigeringsprosessen enn til fremvisning av resultatet. Men noe forbedringer vil også være godt synlige på resultatet: Detaljer i svært lyse og mørke områder, samt ekstremt sterke enkeltfarger.

 

Personlig vil jeg heller ha ekte 60 fps true color på filmer enn 30fps og deep color. (Begge deler er like ressurskrevende)

 

Hadde det ikke vært for LCD, så hadde vi ikke hatt 24-bit-tøyset.

 

Spill brukte 32-bits farger på midten av nittitallet, og CRT-skjermer kunne via D-sub kjøre ~10 bit per pixel (og mer, i teorien) for leeeeenge siden. Plasmaskjermer har for øvrig hatt muligheten for flere farger i lengre tid (så vidt jeg vet). Ikke at det har vært noen vits, i og med at LCD-skrapet har satt standarden.

CRT har aldri hatt særlig presisjonsnivå på fargene på grunn av sin analoge natur. 10 bit er i beste fall et skrytetall uten reelt innhold.

 

Vi har hatt ekte 10 bit LCD-paneler med 12 bit intern prosessering i flere år allerede. Blant annet min 3 år gamle PC-skjerm.

 

Det kan vel sammenlignes med PC grafikk og anti-aliasing. Man bruker anti-aliasing for å bli kvitt sagtenne på rette streker, som ikke ligger rett med pikslene. Dette spiser MYE maskinkraft. Men ved å stille opp oppløsningen, så forsvinner mye av problemet av seg selv, og man trenger ikke bruke mye AA for å få god nok grafikk.

Økt oppløsning sluker faktisk mer regnekraft enn bruk av AA, men gir også bedre resultat. F.eks 800x600 med 4xAA vs 1600x1200 uten AA. Begge metoder regner ut 1600x1200 pixler, men 1600x1200 uten AA er etter min mening å foretrekke, men en skjerm som takler det koster selvsagt mye mer. Men å få i både pose og sekk er selvsagt ennå bedre. Min filosofi er derfor at litt av begge deler er bra.

 

1280x1024 og 16xAA

1920x1200 og 2x-4x AA

2560x1600 uten AA

 

Her foretrekker jeg helt klart det midterste alternativet. Sistnevnte er for dyr, mens førstnevnte ikke er så bra som det midterste.

Lenke til kommentar
Det ses lettes hvis man f.eks. ser en lyspære på skjermen, og man rundt den ser ringer av forskjellige farger, som egentlig skulle ha vært en sammenhengende farge foranding. Det har vært lettest å se dette i grå farger.

Dette har med komprimering og ikke med fargerommet å gjøre.

 

 

 

Utvidelser av standardene til høyere enn 24-bit har nok vel så mye med prossesering under veis fra kamera til tv-signal/DVD/BluRay. Spesielt i konverteringer (YCC itl RGB) har man hatt tap av bildeinformasjon tidligere noe som har vært motivasjon for utvidelse til XVYCC. (xvYCC handler også om mer enn antall bit i pixel-representasjonen)

 

Fin artikkel, men litt føzzy skille mellom begrepene x.v.color og Deep-Color.

Lenke til kommentar
Det kan vel sammenlignes med PC grafikk og anti-aliasing. Man bruker anti-aliasing for å bli kvitt sagtenne på rette streker, som ikke ligger rett med pikslene. Dette spiser MYE maskinkraft. Men ved å stille opp oppløsningen, så forsvinner mye av problemet av seg selv, og man trenger ikke bruke mye AA for å få god nok grafikk.

Økt oppløsning sluker faktisk mer regnekraft enn bruk av AA, men gir også bedre resultat. F.eks 800x600 med 4xAA vs 1600x1200 uten AA. Begge metoder regner ut 1600x1200 pixler, men 1600x1200 uten AA er etter min mening å foretrekke, men en skjerm som takler det koster selvsagt mye mer. Men å få i både pose og sekk er selvsagt ennå bedre. Min filosofi er derfor at litt av begge deler er bra.

 

1280x1024 og 16xAA

1920x1200 og 2x-4x AA

2560x1600 uten AA

 

Her foretrekker jeg helt klart det midterste alternativet. Sistnevnte er for dyr, mens førstnevnte ikke er så bra som det midterste.

 

Etter hva jeg har lagt merke til så er det utrolig stor forskjell fra spill til spill om hvor mye maskinkraft høyere oppløsning faktisk tar. Enkelte spill får man nesten ikke dropp i FPS når man øker oppløsningen, husker ikke helt hvilke, men mener "Age of Conan" var en av dem.

Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...