Gå til innhold

G80 og R600, hva vet vi?


Anbefalte innlegg

Jo. Om du har CrossFire trekker bare grafikkortene 500 watt! I tillegg kommer CPU på 50-100 watt om jeg ikke bommer helt her, og harddisker, etc. Da vil nok anbefalt PSU for et slikt monsteroppsett nok være 800-1000 watt.

 

Slik som jeg har sagt før, så virker det helt absurd å snakke om strømforbruk til PC i kilowatt :)

Lenke til kommentar
Videoannonse
Annonse
Ser fortsatt at jeg ikke får satt 64 bit fargekvalitet mellom ATI driveren, men mulig det ikke har noe med os å gjøre?

6995073[/snapback]

a) Går dette virkelig an, da også teknsisk sett? 64-bits fargedybde?

b) Hva er vitsen? 32-bits fargedybde gir jo langt flere fargenyanser enn hva øyet ditt er i stand å se - i tillegg til 8-bit alpha channel.

8bit per farge kanal gir lite rom for dynamikk (les: lavest til høyest verdi). Vi oppfatter langt mer enn 256 verdier fra mørkeste mørk til lyseste lys eller fra mørkeste til lyseste grønt. Men det spørs dog dette har noe særlig for seg med renderingen av aero.

Lenke til kommentar
Jo. Om du har CrossFire trekker bare grafikkortene 500 watt! I tillegg kommer CPU på 50-100 watt om jeg ikke bommer helt her, og harddisker, etc. Da vil nok anbefalt PSU for et slikt monsteroppsett nok være 800-1000 watt.

 

Slik som jeg har sagt før, så virker det helt absurd å snakke om strømforbruk til PC i kilowatt :)

6995803[/snapback]

 

 

 

leste for ei tid tilbake at ati og nvidia var i samtaler med psu produsenter om hva som skulle bygges. og dde ble de bestillt 1-1,2 KW psuer.

 

må heller ikke glemme at det kommer hovedkort som støtter 3 pci-e kort..... :p

Lenke til kommentar
Ser fortsatt at jeg ikke får satt 64 bit fargekvalitet mellom ATI driveren, men mulig det ikke har noe med os å gjøre?

6995073[/snapback]

a) Går dette virkelig an, da også teknsisk sett? 64-bits fargedybde?

b) Hva er vitsen? 32-bits fargedybde gir jo langt flere fargenyanser enn hva øyet ditt er i stand å se - i tillegg til 8-bit alpha channel.

8bit per farge kanal gir lite rom for dynamikk (les: lavest til høyest verdi). Vi oppfatter langt mer enn 256 verdier fra mørkeste mørk til lyseste lys eller fra mørkeste til lyseste grønt. Men det spørs dog dette har noe særlig for seg med renderingen av aero.

6995917[/snapback]

Ja, det er viktig å skille på farger og lysstyrke. Menneskets øye kan se lys som er fra ca 0,01 (stjerneopplyst terreng) til ca 10.000 cd/m^2 (påskefjellet i steikende sol og nysnø), altså et dynamisk omfang på omtrent en million ganger. Riktignok ser man bare farger i den øvre delen av skalaen omtrent fra 1 cd/m^2 og oppover og killer vel best på farger mellom ca 100 og 1000 cd/m^2. Men det er etter min mening en god idé å ha 64bit farger når det kreves høy dynamikk.

Lenke til kommentar
Ja, det er viktig å skille på farger og lysstyrke. Menneskets øye kan se lys som er fra ca 0,01 (stjerneopplyst terreng) til ca 10.000 cd/m^2 (påskefjellet i steikende sol og nysnø), altså et dynamisk omfang på omtrent en million ganger. Riktignok ser man bare farger i den øvre delen av skalaen omtrent fra 1 cd/m^2 og oppover og killer vel best på farger mellom ca 100 og 1000 cd/m^2. Men det er etter min mening en god idé å ha 64bit farger når det kreves høy dynamikk.

6996499[/snapback]

Men det er vel lite hensiktsmessig når vi ikke har skjermteknologi til å gjengi denne ekstreme lysdynamikken. De fleste av dagens LCD'er har vel en lysstyrke på maksimalt 600-1000 cd/m2, men når de sliter med å gjengi de mørke fargene slik som f.eks CRT-skjermer, er dette ting jeg ville prioritere før 64-bits fargedybde. :)

 

Inntil vidre får vi kose oss med HDR.

Endret av skag1
Lenke til kommentar
Ja, det er viktig å skille på farger og lysstyrke. Menneskets øye kan se lys som er fra ca 0,01 (stjerneopplyst terreng) til ca 10.000 cd/m^2 (påskefjellet i steikende sol og nysnø), altså et dynamisk omfang på omtrent en million ganger. Riktignok ser man bare farger i den øvre delen av skalaen omtrent fra 1 cd/m^2 og oppover og killer vel best på farger mellom ca 100 og 1000 cd/m^2. Men det er etter min mening en god idé å ha 64bit farger når det kreves høy dynamikk.

6996499[/snapback]

Men det er vel lite hensiktsmessig når vi ikke har skjermteknologi til å gjengi denne ekstreme lysdynamikken. De fleste av dagens LCD'er har vel en lysstyrke på maksimalt 600-1000 cd/m2, men når de sliter med å gjengi de mørke fargene slik som f.eks CRT-skjermer, er dette ting jeg ville prioritere før 64-bits fargedybde. :)

 

Inntil vidre får vi kose oss med HDR.

6996806[/snapback]

Er ikke dette en motsigelse? Dette handler om intern presisjon for å kalkulere spekteret vi kan oppfatte. En TV skjerm har samme begrensingene, men likevel med den virkelige verden som kilde har den langt høyere spekter av farge, kontrast og lysstyrke. HDR rendering er virklelig et stort skritt fremover selv om vi sitter med LDR skjermer.

 

Forskjellen kan være merkant selv mellom FP16 og FP24 (16 og 24bit per farge komponent)

shader.jpg

Lenke til kommentar
Er ikke dette en motsigelse? (...) HDR rendering er virklelig et stort skritt fremover selv om vi sitter med LDR skjermer.

6997136[/snapback]

Nei. Som du selv sier er HDR høy dynamisk intern lyskalkulasjon. Siden skjermene ikke kan vise hele dynamikken er jo HDR en metode for justere den "virtuelle lysstyrken" alt etter hvor lyssterk/lyssvak en scene er. HDR-demoen i Lost Coast synes jeg illusterer dette godt når de kommenterer at dette er en etterligning av irisen som justerer seg etter lysintensiteten utendørs versus innedørs.

På denne måten får vi i det minste noe kunstig lysdynamikk med våre LDR-skjermer. Det er bedre enn ingenting, og ser ganske bra ut synes jeg - spesielt HL2: Episode One :)

Lenke til kommentar
På R600 er strømforbruket på 250W (kun kort). Er ikke det ufattelig høyt?. Det dobbelte av  dagens X1900-basert kort :ermm:

 

Vil ikke tenke på Crossfire og strømforbruket der :no:

 

Hvordan vil G80 bli når det gjelder strøm og støy mon tro :hmm:

6995777[/snapback]

Hvis The Inquirer har rett med at det er 700MHz på 500 millioner transistorer kan man gjøre noen beregninger basert på tidligere kort:

 

500M transistors * 700MHz * 80nm (1,3V) = omtrent 175W

500M transistors * 700MHz * 80nm (1,2V) = omtrent 150W

500M transistors * 700MHz * 80nm (1,1V (En god del usannsynlig)) = omtrent 125W

 

500M transistorer på 700MHz med 80nm er faktisk sannsynlig.

X1950XTX bruker omtrent 120W, 90nm og 1,4V.

7950 GX2 bruker omtrent 140W, 90nm og 1,25V.

 

Problemet med inquirers info om 250W er at den stakkars chipen må kjøre med omtrent 1,55V for å produsere 250W varme. Det er usannsynlig med tanke på at denne generasjonens kort kjører 90nm med max 1,45V... :w00t:

Lenke til kommentar
Ser fortsatt at jeg ikke får satt 64 bit fargekvalitet mellom ATI driveren, men mulig det ikke har noe med os å gjøre?

6995073[/snapback]

a) Går dette virkelig an, da også teknsisk sett? 64-bits fargedybde?

b) Hva er vitsen? 32-bits fargedybde gir jo langt flere fargenyanser enn hva øyet ditt er i stand å se - i tillegg til 8-bit alpha channel.

 

24-bit Truecolor uses 8 bits to represent red, 8 bits to represent blue, and 8 bits to represent green. 28 = 256 levels of each of these three colors can therefore be combined to give a total of 16,777,216 mixed colors (256 x 256 x 256).

 

"32-bit color" is a misnomer when regarding display color depth. A common misconception is that 32-bit color produces 4,294,967,296 distinct colors.

In reality, 32-bit color actually refers to 24-bit color (Truecolor) with an additional 8 bits either as empty padding space or to represent an alpha channel.

 

The human eye is popularly believed to be capable of discriminating between as many as 10 million colors.

Kilder:

en.wikipedia.org/wiki/Color_depth

en.wikipedia.org/wiki/Truecolor

6995612[/snapback]

 

Bra med kildehenvisninger (skulle ønske flere la ved kildehenvisninger), ettersom den grundigste av de to kildene sier noe annet enn det du sier ;)

 

Der blir det nemlig sagt at i rene svart/hvit bilder så vil 24 bit farger i noen situasjoner være for lite til at man ikke ser at det er færre farger enn øyet kan se.

 

I bilder som er genererte vil man også kunne se slike overganger.

 

Iflg den ene kilden så er 10bit pr kanal det som er nødvendig for å ta med seg disse to grensetilfellene.

 

Grunnen til at man har slike grensetilfeller er nok at menneskesynet ikke er like godt på hele spektrumet, så selv om vi bare kan se 10 millioner forskjellige farger vil 16,7 millioner farger kunne være for lite hvis de ikke dekker nøyaktig de 10 millionene farger vi faktisk kan se forskjell på. - Tenker nå jeg da ;)

Lenke til kommentar
Nei. Som du selv sier er HDR høy dynamisk intern lyskalkulasjon. Siden skjermene ikke kan vise hele dynamikken er jo HDR en metode for justere den "virtuelle lysstyrken" alt etter hvor lyssterk/lyssvak en scene er. HDR-demoen i Lost Coast synes jeg illusterer dette godt når de kommenterer at dette er en etterligning av irisen som justerer seg etter lysintensiteten utendørs versus innedørs.

På denne måten får vi i det minste noe kunstig lysdynamikk med våre LDR-skjermer. Det er bedre enn ingenting, og ser ganske bra ut synes jeg - spesielt HL2: Episode One :)

6997219[/snapback]

Det handler dog ikke bare om lys dynamikk, men også farger generellt. Mange tekstur lag og lange shadere vil kreve høyere presisjon, UT2007 skal visnok gi noe synlige graderinger med FP24.

Lenke til kommentar
Bra med kildehenvisninger (skulle ønske flere la ved kildehenvisninger), ettersom den grundigste av de to kildene sier noe annet enn det du sier ;)

 

Der blir det nemlig sagt at i rene svart/hvit bilder så vil 24 bit farger i noen situasjoner være for lite til at man ikke ser at det er færre farger enn øyet kan se.

 

I bilder som er genererte vil man også kunne se slike overganger.

 

Iflg den ene kilden så er 10bit pr kanal det som er nødvendig for å ta med seg disse to grensetilfellene.

 

Grunnen til at man har slike grensetilfeller er nok at menneskesynet ikke er like godt på hele spektrumet, så selv om vi bare kan se 10 millioner forskjellige farger vil 16,7 millioner farger kunne være for lite hvis de ikke dekker nøyaktig de 10 millionene farger vi faktisk kan se forskjell på. - Tenker nå jeg da ;)

6997399[/snapback]

Behov for større fargedynamikk i svart/hvitt enn hva 24-bit klarer å produserer vil jeg tro det er stort sett profesjonelle som har behov for. En av grunnene overgangene ikke er like markante i foto som i renderte bilder tror jeg er fordi det er en naturlig dithering som følger av inperfeksjonen i ekte lys og/eller fotoutstyr. Renderte bilder har en tendens til å bli overkliniske :)

 

Men jeg tror også det er like viktig om LCD-skjermer er i stand til å vise alle fargene som 24-bit kan representere, som om det er de fargene som øyet kan se forskjell på.

Lenke til kommentar

Ja, det er jo lenge siden Carmack preket i lune ordelag om 64 bits farger. Det var vel snakk om «banding» på alpha-lag i akkurat det tilfellet tror jeg, men «banding» har vel en tendens til å dukke opp uansett om man ikke jobber med særs høy presisjon. Så lenge det er kontrast nok mellom to farger er det veldig lett å få øye på.

Lenke til kommentar
Jeg tror det blir litt som med fps, øye skal ikke merke noe om det er lavere en 30 fps. Men jeg kan banne på at det er mye bedre å spille jo fler fps du klarer å tyne ut.

6996820[/snapback]

*Det* er en gammel myte det. Basert på film med motion-blur og ikke datagenerert grafikk.

 

En god artikkel finnes her:

http://amo.net/NT/02-21-01FPS.html

 

quote fra artikkelen:

"The USAF, in testing their pilots for visual response time, used a simple test to see if the pilots could distinguish small changes in light. In their experiment a picture of an aircraft was flashed on a screen in a dark room at 1/220th of a second. Pilots were consistently able to "see" the afterimage as well as identify the aircraft. This simple and specific situation not only proves the ability to percieve 1 image within 1/220 of a second, but the ability to interpret higher FPS."

 

220fps er bittegrann høyere enn 30fps.

De fleste ser en merkbar forskjell på 60fps og 120fps. :)

Endret av oddarne84
Lenke til kommentar

http://www.dailytech.com/article.aspx?newsid=4441

 

8800GTX

575MHz Core Clock

900MHz Mem Clock

768MB GDDR3 memory

384-bit memory interface (86GB/s)

128 unified shaders clocked at 1350 MHz

38.4 billion pixels per second theoretical texture fill-rate

450W PSU Recommended

Hard launch in second week of November

 

8800GTS

500MHz Core Clock

900MHz Mem Clock

640MB GDDR3 memory

320-bit memory interface (64GB/s)

96 unified shaders clocked at 1200 MHz

?? billion pixels per second theoretical texture fill-rate

400W PSU Recommended

Hard launch in second week of November

Lenke til kommentar

Det er jo meget bra spesifikasjoner det. Det at de ikke bruker GDDR4 og ikke det raskeste GDDR3 som finnes betyr nok at de kutter litt ned på kostnadene.

 

Ellers så stusser jeg litt på at unified shaders ikke er klokket likt som resten av kjernen. Multiplieren mellom de er heller ikke et enkelt tall som 2. Om det stemmer med to forskjellige hastigheter så ser det ut til at begge sider i rykteflommen hadde rett. Noen mente at kjernen ville gå på noe under 700MHz, mens andre mente opp mot 1500MHz. 575MHz og 1350MHz kan jo sies å være nært nok til å kalles gode gjetninger.

 

Er det noen rykter om lavere modeller ennå? f.eks 8600GT eller noe sånt? Jeg tipper disse kommer utpå senvinteren og muligens har litt rare bredder på minnebussen de også. Kanskje 192bit? Litt færre unified shaders må vi nok også regne med, men klokkehastigheten trenger ikke nødvendigvis bli så mye lavere.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...