Gå til innhold

GeForce 7900 kommer i mars


Anbefalte innlegg

Hva er HDR og hva er det godt for?

5501048[/snapback]

Jeg synes det var noen rare forklaringer her så jeg prøver å forklare det på min egen måte:

 

Hver pixel sette sammen av 3 fargeverdier: Rød, Grønn, Blå. Hver av disse fargeverdiene har normalt 1 Byte (=8bit) lagringskapasitet Altså 24 bit per pixel. Dvs. at hver farge kan representeres med opptil 2^8 = 256 fargenivåer mellom null av denne fargen (sort) og maksimal fargeverdi (knall farge). Når teksturer, skygger, gamma osv beregnes så ganges fargeverdiene sammen og normaliseres. Slike operasjoner burde gitt en 16 bit verdi for hver farge, men som vi husker så har hver farge normalt bare 8 bit lagringskapasitet. Alt etter kommaet (vage fargenyanser) går altså bort når teksturer, lyssetting, gamma, bumpmapping osv legges oppå hverandre. Den reelle fargedybden synker på grunn av dette til 6-7bit per farge. Ved de aller lyseste og aller mørkeste fargene blir det veldig lett å skilne mellom nyanser og dette forsterkes ved at alt etter komma forsvinner. Dette er altså ved vanlig 24bit fargedybde per pixel. (8 bit per farge).

 

HDR øker antall fargenyanser betraktelig: fra 8 bit per farge til 16 bit. Altså fra 256 til 65536 fargenivåer per farge. Det blir altså slutt på få fargenyanser ("fargedybde"). Med High Dynamic Range får man altså flere fargenyanser og desto mindre forstyrrelse av fargene når teksturer skal beregnes mange ganger med gamma, lys, bumpmapping, osv. Nøyaktigheten på fargene vil merkes mange plasser men særlig i de aller lyseste og de aller mørkeste områdene. Reelt sett øker fargedybden fra 6-7bit til 8bit per farge. (Ingen vanlige LCD-skjermer eller skjermtilkoblinger støtter noe mer enn dette). Men det er ikke så galt med en økning fra 6-7bit til 8bit. Dette gir tross alt 2-4 ganger så mange fargenyanser. Noe som sikkert vil merkes mange plasser.

 

I fremtiden kan vi se for oss at det blir vanlig med skjermer som takler 10-12bit fargedybde og da vil man selvfølgelig få ennå mer glede av denne effekten. Noen av Dells skjermer reklamerer med 10 bit fargedybde, men husk at DVI eller d-sub ikke kan sende ut mer enn 8bit per farge. Disse 10 bitene vil kun ha effekt ved at flere bilder etter hverandre vil legges oppå hverandre som en slags gjennomsnittsverdi.

Lenke til kommentar
Videoannonse
Annonse
Go NVIDIA!

 

Men sånn seriøst, det blir jo kjekt med 7900, men

noen som vet hvilken modell som kansje får dx10?

5500358[/snapback]

Lurer på akkurat det samme! Jeg kjører med et 6800gt kort per idag og håper det holder mål fram til lanseringen av dx10 kortet. Mener jeg leste et sted at det skulle komme i løpet av sommeren engang, hvis ikke det blir utsatt da?

Lenke til kommentar
Hva er HDR og hva er det godt for?

5501048[/snapback]

Jeg synes det var noen rare forklaringer her så jeg prøver å forklare det på min egen måte:

 

Hver pixel sette sammen av 3 fargeverdier: Rød, Grønn, Blå. Hver av disse fargeverdiene har normalt 1 Byte (=8bit) lagringskapasitet Altså 24 bit per pixel. Dvs. at hver farge kan representeres med opptil 2^8 = 256 fargenivåer mellom null av denne fargen (sort) og maksimal fargeverdi (knall farge). Når teksturer, skygger, gamma osv beregnes så ganges fargeverdiene sammen og normaliseres. Slike operasjoner burde gitt en 16 bit verdi for hver farge, men som vi husker så har hver farge normalt bare 8 bit lagringskapasitet. Alt etter kommaet (vage fargenyanser) går altså bort når teksturer, lyssetting, gamma, bumpmapping osv legges oppå hverandre. Den reelle fargedybden synker på grunn av dette til 6-7bit per farge. Ved de aller lyseste og aller mørkeste fargene blir det veldig lett å skilne mellom nyanser og dette forsterkes ved at alt etter komma forsvinner. Dette er altså ved vanlig 24bit fargedybde per pixel. (8 bit per farge).

 

HDR øker antall fargenyanser betraktelig: fra 8 bit per farge til 16 bit. Altså fra 256 til 65536 fargenivåer per farge. Det blir altså slutt på få fargenyanser ("fargedybde"). Med High Dynamic Range får man altså flere fargenyanser og desto mindre forstyrrelse av fargene når teksturer skal beregnes mange ganger med gamma, lys, bumpmapping, osv. Nøyaktigheten på fargene vil merkes mange plasser men særlig i de aller lyseste og de aller mørkeste områdene. Reelt sett øker fargedybden fra 6-7bit til 8bit per farge. (Ingen vanlige LCD-skjermer eller skjermtilkoblinger støtter noe mer enn dette). Men det er ikke så galt med en økning fra 6-7bit til 8bit. Dette gir tross alt 2-4 ganger så mange fargenyanser. Noe som sikkert vil merkes mange plasser.

 

I fremtiden kan vi se for oss at det blir vanlig med skjermer som takler 10-12bit fargedybde og da vil man selvfølgelig få ennå mer glede av denne effekten. Noen av Dells skjermer reklamerer med 10 bit fargedybde, men husk at DVI eller d-sub ikke kan sende ut mer enn 8bit per farge. Disse 10 bitene vil kun ha effekt ved at flere bilder etter hverandre vil legges oppå hverandre som en slags gjennomsnittsverdi.

5502145[/snapback]

 

Så emd andre ord, når alt feks blir veldig hvitt når man ser på sola, så har ikke det noe direkte med HDR å gjøre? Det er en annen effekt?

 

AtW

Lenke til kommentar
For min del passer det perfekt å oppgradere til g80 eventuelt R600 når disse kommer med SM4 og Dx10. Håper bare mitt nåværende 7800GT kort holder til den meget spennende spillvåren  :)

5500437[/snapback]

 

Jeg tviler på om det vil komme et eneste spill som tvinger 7800 i kne dette året.

Tror heller det kommer an på CPU med all sanntidsfysikken i kommende spill.

Lenke til kommentar
Så emd andre ord, når alt feks blir veldig hvitt når man ser på sola, så har ikke det noe direkte med HDR å gjøre? Det er en annen effekt?

5502203[/snapback]

Nja.. Jeg tror man vil se nyanser rundt sola bedre med HDR enn uten. F.eks veldig lyse fjærskyer. Og i skygger vil man se detaljer i motsetning til før. Sterkt reflektive objekter vil få en mer realistisk refleks. Men bare 2-4 ganger bedre nyanser. Ikke 256 ganger bedre som 8 vs 16 bit i teorien skal gi.

 

Mulig jeg forklarte det litt rart jeg også. Det var ikke helt lett å få frem hva jeg mente.

Lenke til kommentar
Litt off-topic her men:

Hva er HDR og hva er det godt for?

 

Tror det har noe med lyssetting men er ikke helt sikker...

Har spilt HL2:lost coast, og det var det jeg fant ut

5501048[/snapback]

 

Det er i grunn og bunn en måte å rende mer naturlig lys og lyseffekter, slik som de framstår for et menneske. Dvs. vi mennsker oppfatter ikke løs slik som det faktisk er. I et mørkt miljø kompenser vi med å åpne pupillene mer. I et lyst miljø lukker vi pupillene mer for å ikke bli blendet.

 

HDR gir muligheten til å gi lys-kontraster som ellers ville vært "umulige" å implementere på gammel måte. F.eks. virkelig naturtro sol-glare, og effekten av å bli nesten blendet av lys ved gå ut av en mørk bunkers ut i sollyset, overveldmende lys om du stirrer rett inn i solen osv.

 

Om du har et kort som talker demoen, så er dette er glimrende demonstrasjon av HDR. Den krever et kort med pixel og vertex shader 2.0 eller høyere (dvs. de fleste kort av nyere type burde takle den).

http://www.daionet.gr.jp/~masa/rthdribl/

 

Har du ikke komptaibelt kort så kan bildene på siden gi deg en viss idè av hva slags effekter du kan få, men for de som kan, kjør demoen, den er utrolig flott å se på. Blir spennende når HDR blir implementert skikkeig i spill.

 

-Stigma

5501258[/snapback]

 

Dersom man noengang ønsker å oppnå fotorealisme i spill er man nødt til å implementere HDR.

 

Her er litt info om HDR:

http://www.debevec.org/Research/HDR/

http://en.wikipedia.org/wiki/High_dynamic_range_imaging

 

Det heter High Dynamic Range fordi spennet mellom lys og mørke for menneskeøyet er mange ganger høyere enn det fotopapir eller en skjerm kan gjengi. HDR er en 'juksemetode' for å gjenskape dette spennet på en skjerm.

 

*edit*

Her er en lenke som forklare HDR rendering i 3D (spill f.eks).

http://en.wikipedia.org/wiki/High_dynamic_range_rendering

Endret av ZiggyStardust
Lenke til kommentar
Hdr er lys effekter som skal fungere mest mulig likt mot øyet ditt som det gjør i virkeligheten

5501065[/snapback]

 

Personlig skjønner jeg ikke hvoror det heter "High Dynamic Range", såvidt jeg kan skjønne blir det en lavere (og mer realistisk) dynamic range.

 

AtW

5501073[/snapback]

Nei, ikke slik jeg opplevde det i siste hl2 demoen og 3dmark06!

Lyseffektene ble mere intense, men samtidig mere realistisk og vakrere å se på :thumbup:

5502102[/snapback]

 

Mer realistisk og vakkert ja, men når du ser på sola feks blir jo alt veldig hvitt, det er ikke high dynamic range, det er en lav dynamic range?

 

AtW

5502115[/snapback]

 

Det har ikke med lysintensiteten å gjøre, men variasjonene i lysintensiteten mellom lyst og mørkt. High fordi spennvidden er stor, altså. Se min forrige post. :thumbup:

Endret av ZiggyStardust
Lenke til kommentar
Hva er HDR og hva er det godt for?

5501048[/snapback]

Jeg synes det var noen rare forklaringer her så jeg prøver å forklare det på min egen måte:

 

Hver pixel sette sammen av 3 fargeverdier: Rød, Grønn, Blå. Hver av disse fargeverdiene har normalt 1 Byte (=8bit) lagringskapasitet Altså 24 bit per pixel. Dvs. at hver farge kan representeres med opptil 2^8 = 256 fargenivåer mellom null av denne fargen (sort) og maksimal fargeverdi (knall farge). Når teksturer, skygger, gamma osv beregnes så ganges fargeverdiene sammen og normaliseres. Slike operasjoner burde gitt en 16 bit verdi for hver farge, men som vi husker så har hver farge normalt bare 8 bit lagringskapasitet. Alt etter kommaet (vage fargenyanser) går altså bort når teksturer, lyssetting, gamma, bumpmapping osv legges oppå hverandre. Den reelle fargedybden synker på grunn av dette til 6-7bit per farge. Ved de aller lyseste og aller mørkeste fargene blir det veldig lett å skilne mellom nyanser og dette forsterkes ved at alt etter komma forsvinner. Dette er altså ved vanlig 24bit fargedybde per pixel. (8 bit per farge).

 

HDR øker antall fargenyanser betraktelig: fra 8 bit per farge til 16 bit. Altså fra 256 til 65536 fargenivåer per farge. Det blir altså slutt på få fargenyanser ("fargedybde"). Med High Dynamic Range får man altså flere fargenyanser og desto mindre forstyrrelse av fargene når teksturer skal beregnes mange ganger med gamma, lys, bumpmapping, osv. Nøyaktigheten på fargene vil merkes mange plasser men særlig i de aller lyseste og de aller mørkeste områdene. Reelt sett øker fargedybden fra 6-7bit til 8bit per farge. (Ingen vanlige LCD-skjermer eller skjermtilkoblinger støtter noe mer enn dette). Men det er ikke så galt med en økning fra 6-7bit til 8bit. Dette gir tross alt 2-4 ganger så mange fargenyanser. Noe som sikkert vil merkes mange plasser.

 

I fremtiden kan vi se for oss at det blir vanlig med skjermer som takler 10-12bit fargedybde og da vil man selvfølgelig få ennå mer glede av denne effekten. Noen av Dells skjermer reklamerer med 10 bit fargedybde, men husk at DVI eller d-sub ikke kan sende ut mer enn 8bit per farge. Disse 10 bitene vil kun ha effekt ved at flere bilder etter hverandre vil legges oppå hverandre som en slags gjennomsnittsverdi.

5502145[/snapback]

 

Interessant :)

Lenke til kommentar
Godt å vite. Enste negative med denne utviklingen vi ser nå ( 4 toppkort lanseringer på et år ) er at man aldri får kjøpt pc, og venter konstant på det som er rett tundt hjørnet.

5500273[/snapback]

Nytter ikke å sitte å vente på ting hele tiden i "dataverdenen". Skulle jeg kjøpt pc nå hadde jeg ikke ventet på G71.

Lenke til kommentar
Hdr er lys effekter som skal fungere mest mulig likt mot øyet ditt som det gjør i virkeligheten

5501065[/snapback]

 

Personlig skjønner jeg ikke hvoror det heter "High Dynamic Range", såvidt jeg kan skjønne blir det en lavere (og mer realistisk) dynamic range.

 

AtW

5501073[/snapback]

Nei, ikke slik jeg opplevde det i siste hl2 demoen og 3dmark06!

Lyseffektene ble mere intense, men samtidig mere realistisk og vakrere å se på :thumbup:

5502102[/snapback]

 

Mer realistisk og vakkert ja, men når du ser på sola feks blir jo alt veldig hvitt, det er ikke high dynamic range, det er en lav dynamic range?

 

AtW

5502115[/snapback]

 

Det har ikke med lysintensiteten å gjøre, men variasjonene i lysintensiteten mellom lyst og mørkt. High fordi spennvidden er stor, altså. Se min forrige post. :thumbup:

5502316[/snapback]

 

Men når man ser "rett på sola" feks så blir jo alt veldig hvitt, eller bare svart, hvorfor er det mere range enn vanlig, man kan jo ha både helt hvitt og helt svart vanligvis. Det er bare at det er mindre av fargenyansene imellom?

 

AtW

Lenke til kommentar

Jeg fikk svar på spørsmålet mitt og litt til.

Takk til alle som var så kjappe med å svare..

Skal se etter de lyseffektene neste gang jeg spiller CS:Source sitt nyeste map, cs-millitia som er laget med HDR.

 

Det er mange med mye kunnskap her på forumet, vi må bare få det ut av dem

:thumbup:

Endret av intelli-musa
Lenke til kommentar
Men når man ser "rett på sola" feks så blir jo alt veldig hvitt, eller bare svart, hvorfor er det mere range enn vanlig, man kan jo ha både helt hvitt og helt svart vanligvis. Det er bare at det er mindre av fargenyansene imellom?

5504019[/snapback]

HDR gir flere fargenyanser mellom sort og hvit. På en skjerm med f.eks 300 cd/m^2 lysstyrke og 600:1 kontrast så vil sort være nesten sort med 0,5cd/m^2 mens hvit vil være 300cd/m^2. Mellom disse nivåene har man 8bit i 2D = 256 nivåer av lysintensitet (a ca 1,2 cd/m^2 mellom hvert steg) på hver av de tre fargene. I 3D vil det i realiteten være ca 6-7 bit siden noe informasjon går tapt i GPUen når lange lag med teksturer osv skal legges oppå hverandre. La oss si nøyaktigheten er 6bit = 64 nivåer. Da vil hvert steg mellom sort og hvitt være hele 4,7 cd/m^2. Helt sort er altså 0,5cd/m^2 mens det nest mørkeste sorte er 5,2 cd/m^2. Dette er et ganske stort sprang og litt overdrevet vil det se ut som en mørk scene i en dårlig rekomprimert film i f.eks MPEG1-format. Altså noen plasser helt sort og overgangen til nest sorteste nivå blir et tydelig sprang opp til mørkegrått. Ingen jevn overgang med andre ord. Det samme gjelder i andre enden av skalaen der det er et tydelig sprang i farge mellom hvitt og nesten hvitt. "Diskontinuitet i fargenivået" for de som prater matematisk.

 

HDR øker antall fargenyanser til veldig mye. Teoretisk 65536 nyanser, men i praksis etter beregningene i GPU: kanskje 16384 (14 bit). Dette utnytter det fulle nyansenivået som skjermen er i stand til å vise. Altså steg på 1,2 cd/m^2 i 3D. Dette gir mer realistiske fargeoverganger og lider ikke så mye av å se ut som en dårlig rekomprimert film.

 

Med fremtidige skjermer (12 bit ekte fargedybde) med ennå større kontrast enn i dag, f.eks 10.000:1 så vil det ikke være tydelige fargeoverganger noen plasser. Selv ikke i de mørkeste scenene eller de aller lyseste. Hele det dynamiske området er utvidet til at hvitt blir ennå hvitere og sort blir ennå sortere. Fargenyansene er så jevne at det er umulig å se at det er noen overgang. For å ta et eksempel med en skjerm med kontrast 10.000:1, maks lysstyrke 1000 cd/m^2 og minimal lysstyrke 0,1cd/m^2 og 12 bit farger: Da vil hele fargespekteret deles opp i 16384 nyanser (for hver av de tre grunnfargene). Altså 1000/16384 = nyansetrinn a ca 0,06 cd/m^2. Den veldige sorte 0,1cd/m^2 vil i veldig små steg (a 0,6 cd/m^2) bli lysere og lysere. Det som uten HDR vil se helt sort ut med mørgegrå flekker/felter vil nå se ut som et vell av nyanser mellom veldig sort og mørkegrått med muligheter for å skimte mørke detaler man ellers ikke ville sett. Himmel vil se bedre ut, veldig lyse ting vil se bedre ut, og andre plasser der man ønsker jevne fargeoverganger ser bedre ut.

Lenke til kommentar
Men når man ser "rett på sola" feks så blir jo alt veldig hvitt, eller bare svart, hvorfor er det mere range enn vanlig, man kan jo ha både helt hvitt og helt svart vanligvis. Det er bare at det er mindre av fargenyansene imellom?

5504019[/snapback]

HDR gir flere fargenyanser mellom sort og hvit. På en skjerm med f.eks 300 cd/m^2 lysstyrke og 600:1 kontrast så vil sort være nesten sort med 0,5cd/m^2 mens hvit vil være 300cd/m^2. Mellom disse nivåene har man 8bit i 2D = 256 nivåer av lysintensitet (a ca 1,2 cd/m^2 mellom hvert steg) på hver av de tre fargene. I 3D vil det i realiteten være ca 6-7 bit siden noe informasjon går tapt i GPUen når lange lag med teksturer osv skal legges oppå hverandre. La oss si nøyaktigheten er 6bit = 64 nivåer. Da vil hvert steg mellom sort og hvitt være hele 4,7 cd/m^2. Helt sort er altså 0,5cd/m^2 mens det nest mørkeste sorte er 5,2 cd/m^2. Dette er et ganske stort sprang og litt overdrevet vil det se ut som en mørk scene i en dårlig rekomprimert film i f.eks MPEG1-format. Altså noen plasser helt sort og overgangen til nest sorteste nivå blir et tydelig sprang opp til mørkegrått. Ingen jevn overgang med andre ord. Det samme gjelder i andre enden av skalaen der det er et tydelig sprang i farge mellom hvitt og nesten hvitt. "Diskontinuitet i fargenivået" for de som prater matematisk.

 

HDR øker antall fargenyanser til veldig mye. Teoretisk 65536 nyanser, men i praksis etter beregningene i GPU: kanskje 16384 (14 bit). Dette utnytter det fulle nyansenivået som skjermen er i stand til å vise. Altså steg på 1,2 cd/m^2 i 3D. Dette gir mer realistiske fargeoverganger og lider ikke så mye av å se ut som en dårlig rekomprimert film.

 

Med fremtidige skjermer (12 bit ekte fargedybde) med ennå større kontrast enn i dag, f.eks 10.000:1 så vil det ikke være tydelige fargeoverganger noen plasser. Selv ikke i de mørkeste scenene eller de aller lyseste. Hele det dynamiske området er utvidet til at hvitt blir ennå hvitere og sort blir ennå sortere. Fargenyansene er så jevne at det er umulig å se at det er noen overgang. For å ta et eksempel med en skjerm med kontrast 10.000:1, maks lysstyrke 1000 cd/m^2 og minimal lysstyrke 0,1cd/m^2 og 12 bit farger: Da vil hele fargespekteret deles opp i 16384 nyanser (for hver av de tre grunnfargene). Altså 1000/16384 = nyansetrinn a ca 0,06 cd/m^2. Den veldige sorte 0,1cd/m^2 vil i veldig små steg (a 0,6 cd/m^2) bli lysere og lysere. Det som uten HDR vil se helt sort ut med mørgegrå flekker/felter vil nå se ut som et vell av nyanser mellom veldig sort og mørkegrått med muligheter for å skimte mørke detaler man ellers ikke ville sett. Himmel vil se bedre ut, veldig lyse ting vil se bedre ut, og andre plasser der man ønsker jevne fargeoverganger ser bedre ut.

5504802[/snapback]

 

Ja, det er jeg med på, men dette gir jo ikke noe større spennvidde mellom det mørkeste og det lyseste? Og som jeg tidligere sa, det betyr vel at disse lyseffeketene det er snakk om ikke direkte har noe med HDR å gjøre? (at ting blir veldig lyst når man ser på sola feks, eller at om man er i et stort lyst uteområde og ser et vindu inn på et mørkt område, så ser det helt svart ut, i motsetning til før, det er jo på mange måter en lavere dynamic range, en det vanligvis er, spørs litt hvilken dynamic range det er snakk om, monitorens, eller "spillverdenens"), De kunne vel blitt implmentert uansett, bare at de kanskje hadde sett litt mindre bra ut?

 

AtW

Lenke til kommentar

I 3ds max er HDRI bitmaps som i tillegg til fargeinformasjon også inneholder informasjon om lys (farge, styrke). Brukes der for å la f.eks omgivelsene kaste lys på objekter i scenen på en naturtro måte.

 

litt dårlig forklart, men informasjon som ikke direkte vises i selve bitmappen, men kan brukes til å påvirke andre objekter. En avansert form for lyskilder i scenene.

 

En HDR guide for 3DS Max

 

Kan ikke HDR i spill være noe lignende?

Endret av Sigurd2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...