Gå til innhold

Nvidia satser på raytracing


Anbefalte innlegg

Videoannonse
Annonse

Ok, hva er egentlig dette for noe? Er det slik at det er null "virtuelle" metoder for å simulere polygoner? Altså, med dette så vil ikke Virtual Displacement Mapping f. eks være nødvendig? Og at det da vil bli Displacement Mapping istedet? Slik som brukes av Pixar bl. a og animerte CG-filmer? Bare i realtime? Mange spørsmål her :)

Lenke til kommentar

Raytracing passer vel inn i CUDA opplegget til Nvidia vile jeg tro. Intel har jo frontet raytracing ganske lange nå og har fått quake 3 til å kjøre på en qx9770 i 1280x 800 med 70 til 80 fps mener jeg å huske.

 

Raytracing vil vell først bli brukt til refleksjoner og slkt skull man tro. Ville sjekket u den wikipedia artikelen, står mye interesan der.

Lenke til kommentar
Ok, hva er egentlig dette for noe? Er det slik at det er null "virtuelle" metoder for å simulere polygoner? Altså, med dette så vil ikke Virtual Displacement Mapping f. eks være nødvendig? Og at det da vil bli Displacement Mapping istedet? Slik som brukes av Pixar bl. a og animerte CG-filmer? Bare i realtime? Mange spørsmål her :)

 

Raytracing er som navnet sier. Det er vondt å forklare på norsk med alt teknobabbelet, men du kan lese wikipedia-rartikkelen her: http://en.wikipedia.org/wiki/Ray_tracing_%28graphics%29

 

Men nei, raytracing er ikke realtime (enda?), siden som det står i artikkelen er raytracing et helvete for maskinvaren, og et VGA-bilde med raytracing (640x480) kan ta noen sekunder å rendre med en rimelig grei maskin (brutterns 2.4GHz P4 X1950 Rdeon Sapphire-somthing). Tok meg over fire minutter å rendre et 720x1280 på brutterns maskin i Maya.

Endret av S-r-ex
Lenke til kommentar

Ah, gjør det litt mer forståelig. Ok, så hvordan fungerer da tradisjonell rendering? Det må jo være noe lignende som dette vel? Bare at dette tar for seg hver eneste pixel? Shit, blir litt matematisk osv dette :) Men svært interessant likevel! :) Hvordan vil dette påvirke pixel shaders?

 

Edit: Tror denne artikkelen kan kaste litt "lys" over emnet :p

 

http://www.pcper.com/article.php?aid=530

Endret av Kenny Bones
Lenke til kommentar
Gjest Slettet-ORYwP89mk3

Her er et lite ray tracing prosjekt for de interesserte:

http://igad.nhtv.nl/~bikker/

 

Gå på downloads og last ned "Arauna demo & source package (originally released on December 17, 2007)", pakk ut og kjør arauna.exe.

Hvis man ønsker en annen oppløsning åpner man filen scene.txt og forandrer på disse:

 

scrwidth 800

scrheight 600

 

til f.eks.:

 

scrwidth 1024

scrheight 768

 

eller:

 

scrwidth 1920

scrheight 1200

 

PS: Alt på eget ansvar!!!

 

Glemte å fortelle at arauna ray tracing bruker cpu'en til jobben og ikke gpu.

Endret av Slettet-ORYwP89mk3
Lenke til kommentar

En 45nm Cell bruker ca. 80w, så å bruke den til en del grafikkrelaterte ting hadde vært meget lurt med tanke på kapasiteten den innehar. Man kunne laget et PCIe kort som fungerte som støttekort til bla. et grafikkort og maskinen generellt på mange områder.

 

Dette støttekortet kunne bestått av 2-3 parallelliserte Cell 45nm og kjørt på 16x PCIe el. Det kunne tatt seg av alt av fysikk, raytracing, rendering, utregninger, simulasjoner mm og dermed ikke vært begrenset til bare spill.

 

Det ville ikke krevd mer strøm enn dagens toppkort.

 

Og man kunne selvf. iverksatt folding@home på "TriCell" kortet når man ikke brukte maskinen. PS3 kjører i dag folding@home med enorm kapasitet og "bare" 1stk Cell.

Endret av Theo343
Lenke til kommentar
En 45nm Cell bruker ca. 80w, så å bruke den til en del grafikkrelaterte ting hadde vært meget lurt med tanke på kapasiteten den innehar. Man kunne laget et PCIe kort som fungerte som støttekort til bla. et grafikkort og maskinen generellt på mange områder.

 

Dette støttekortet kunne bestått av 2-3 parallelliserte Cell 45nm og kjørt på 16x PCIe el. Det kunne tatt seg av alt av fysikk, raytracing, rendering, utregninger, simulasjoner mm og dermed ikke vært begrenset til bare spill.

 

Det ville ikke krevd mer strøm enn dagens toppkort.

 

Og man kunne selvf. iverksatt folding@home på "TriCell" kortet når man ikke brukte maskinen. PS3 kjører i dag folding@home med enorm kapasitet og "bare" 1stk Cell.

 

Cell prosessoren var i utgangspunktet tenkt brukt som cpu/gpu på PS3, men det viste seg at den ikke var kraftig nok. De måtte derfor bruke et skjermkort for grafikken, mens cell prosessoren kun blir brukt som cpu.

Lenke til kommentar
En 45nm Cell bruker ca. 80w, så å bruke den til en del grafikkrelaterte ting hadde vært meget lurt med tanke på kapasiteten den innehar. Man kunne laget et PCIe kort som fungerte som støttekort til bla. et grafikkort og maskinen generellt på mange områder.

 

Dette støttekortet kunne bestått av 2-3 parallelliserte Cell 45nm og kjørt på 16x PCIe el. Det kunne tatt seg av alt av fysikk, raytracing, rendering, utregninger, simulasjoner mm og dermed ikke vært begrenset til bare spill.

 

Det ville ikke krevd mer strøm enn dagens toppkort.

 

Men hva får deg til å tro at den har noe i nærheten av samme ytelse som dagens toppkort? (EDIT: på raster-basert grafikk altså)

Det er klart at en slik prosessor har store fordeler med at den kan brukes til andre ting enn grafikk, men det kan man med nvidiaskjerkort via CUDA også.

Endret av NorthWave
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...