Gå til innhold

GUIDE: Nvidia Turing-arkitekturen Nvidias RTX-kort åpner en ny æra for 3D-grafikk


Anbefalte innlegg

Gjest Slettet+5132

Jeg vet ikke hva Nvidia har gjort, men jeg tipper de kutter i antall hopp strålen foretar seg slik at man kan prosessere raskt nok, men samtidig få et godt resultat. Det i seg selv er en liten bragd selv om man ikke vil kunne sammenligne med de beste spillefilmene.

 

Hvis man skal tro presentasjoner tidligere: Monte Carlo-sampling og så støyfjerning via maskinlæring (se også den tekniske artikkelen hvor de nevner ray-tracing som anvendelse).

 

Det vil si: I teorein må du kjøre på med 1920*1080=2073600 stråler for 1920x1080 oppløsning. Nvidia spekulerte iallfall tidligere i å kjøre på med N << 2073600 stråler, og så bruke støyfjerning på det endelige bildet for å "interpolere" de manglende pikslene. 

Lenke til kommentar
Videoannonse
Annonse

RTX-kortene kan behandle et antall stråler som tilsvarer mer enn én stråle per pixel per frame. Men det er ikke nødvendigvis nok. Ved hvert treffpunkt må man sende shadow rays til lyskildene, og for diffus belysning, diffuse refleksjoner, diffus lysbrytning og sånt må man sende ut stråler i mange retninger, egentlig alle. I tillegg må skarpe stråler reflekteres flere ganger. Her kan Monte Carlo-sampling og støykorrigering ha en del for seg. Søk opp "brigade path tracing demo" for et eksempel på noe slikt med gammel teknologi. Men muligens uten støykorrigering.

Endret av FB.106965827100006
Lenke til kommentar

Hvis du med "ytelse" mener oppløsning og framerate, så kan du jo bare spille gamle spill og få masse av begge deler.

Kjøper jo ikke nytt skjermkort (som for eksempel ett 2080ti) for og spille gamle spill.

Er jo selfølgelig for og spille nye spill med bedre framerates og høyere grafikk-instillinger.

 

Prisen på 15000 er fortsatt veldig drøy, til tross for Raytracing.

Lenke til kommentar
Gjest Slettet+5132

Kjøper jo ikke nytt skjermkort (som for eksempel ett 2080ti) for og spille gamle spill.

Er jo selfølgelig for og spille nye spill med bedre framerates og høyere grafikk-instillinger.

 

Prisen på 15000 er fortsatt veldig drøy, til tross for Raytracing.

Det beste tipset er nok å vente et år, med mindre du må spille Battlefield V med raytracing i dag (eller kanskje helst i går). Hvis/når raytracing får fotfeste, vil du få reell ytelsesforbedring av å kjøpe RTX20xx-generasjonen, men man sparer nok en del på å smøre seg med tålmodighet.

Endret av Slettet+5132
Lenke til kommentar

Det beste tipset er nok å vente et år, med mindre du må spille Battlefield V med raytracing i dag (eller kanskje helst i går). Hvis/når raytracing får fotfeste, vil du få reell ytelsesforbedring av å kjøpe RTX20xx-generasjonen, men man sparer nok en del på å smøre seg med tålmodighet.

Det finnes ikke noe "hvis" her, angående om Raytracing vil få fotfeste eller ikke. Det at det var målet innenfor spill har vært kjent i over 10 år allerede. 

  • Liker 1
Lenke til kommentar

Hvis man skal tro presentasjoner tidligere: Monte Carlo-sampling og så støyfjerning via maskinlæring (se også den tekniske artikkelen hvor de nevner ray-tracing som anvendelse).

 

Det vil si: I teorein må du kjøre på med 1920*1080=2073600 stråler for 1920x1080 oppløsning. Nvidia spekulerte iallfall tidligere i å kjøre på med N << 2073600 stråler, og så bruke støyfjerning på det endelige bildet for å "interpolere" de manglende pikslene.

Greit nok at de rydder opp i bildet etterpå, men virkelig raytracing er tungt som bare pokker. En stråle per pixel per frame er ikke nødvendigvis nok. Spesielt ikke med refleksjoner osv. Selv om de rydder opp etterpå så må hoppene strålene gjør kalkuleres, og det er mye jobb med mange objekter med refleksjoner. Det er ikke mulig at de kjører full raytrace per frame. De må "jukse" et sted. Det hadde vært interessant om artikkelen tok for seg hvordan de har gjort dette. Men det finnes sikkert på nett om jeg tar meg tid til å google en gang. Endret av Serpentbane
Lenke til kommentar

Et veldig early adopter kort. Som artikkelforfatter skriver så må den nye teknologien implementeres av software utviklere, det vil si at det vil komme mange titler de neste årene med dette innebygget - Og at det per dags dato kun er 1 tittel på markedet med raytracing (tombraider). Raytracing har vist seg å være meget hardt for dette kortet å kjøre, noen vil si for hardt. Ville gitt det 2 år til så vil det komme et kort som faktisk klarer å kjøre raytracing i 4k

Lenke til kommentar

Med en slik høy pris kan man nesten spekulere på om den er satt "skremmende" høyt for å slippe av med 10X0 generasjonen. Spesielt 1080 som det ble produsert for mange av. Raytracing er et flott steg, men når det går på bekostning av mye FPS, blir det vanskelig å forsvare prisforskjellen. Ihvertfall når det gjelder spill hvor FPS har stor betydning for resultatet.

Jeg er spent på å se hva riktige benchmark viser. Ikke bare ytelse, men hvilke flaskehalser som kan oppstå. F.eks. CPU. Dette kommer i tillegg til skjermkort. Er man villig til å investere 10-15 tusen for et skjermkort, har man kanskje også råd til de andre komponenter. Men for de fleste vil det ikke være sånn, og da blir raytracing kun noe som handler om å melke penger, istedet for å spre spilleglede.

  • Liker 1
Lenke til kommentar

 

Strålesporing er neppe godkjent av norsk sprakrad likevel. Så vær snill å gi deg nå Smedsrud. Det er bare patetisk og har liten humorverdi. Er mer et irritasjonsmoment egentlig. Ray tracing hørte jeg allerede om på 90-tallet og dette er et begrep folk kjenner (selv i Norge, enkelte av oss)

Endret av G
Lenke til kommentar

Strålesporing er faktisk en forholdsvis god oversettelse. Alt høres teit ut i begynnelsen til du blir vant med det. Tror du ikke raytracing hørtes teit ut i først omgang også?

 

Greit å ha et fnugg av språklig integritet :)

 

Ja dersom du synes forskjellige IT-termer høres teit ut så..

 

Men IT-termene blir som regel født på engelsk. Og da blir det gjerne det folk klenger seg til, altså de engelske termene. Men man har da aksepterte norske begrep også, slik som tastatur.

 

Høres jo litt teit ut det også i grunn, tastatur altså :wee:

Endret av G
Lenke til kommentar

Strålesporing, motstridsartifakter og alver er selvsagt kjente utrykk for hardbarka spillere på personlig komputer.

 

Det her var bare for å vise hvor variert det er om det finnes et norsk ord for et EDM-utrykk. Ray tracing er et kjent utrykk for de som har jobbet litt med 3D rendering. Lyssporing ville vært mer forenlig med utrykket fordi ingen utvikler ville noen sinne oppleve å spore lys uten synlighet.

Lenke til kommentar

Greit nok at de rydder opp i bildet etterpå, men virkelig raytracing er tungt som bare pokker. En stråle per pixel per frame er ikke nødvendigvis nok. Spesielt ikke med refleksjoner osv. Selv om de rydder opp etterpå så må hoppene strålene gjør kalkuleres, og det er mye jobb med mange objekter med refleksjoner. Det er ikke mulig at de kjører full raytrace per frame. De må "jukse" et sted. Det hadde vært interessant om artikkelen tok for seg hvordan de har gjort dette. Men det finnes sikkert på nett om jeg tar meg tid til å google en gang.

Det er antall bounces som stopper her. De kjører veldig få bounces kontra hva man ser i film. Det ser man i tech-filmene fra nVidia på hvor sinnssykt mye støy det er.

 

Dvs, når ikke en "ray" en lysskilde på 1-2 bounces, så dør den av ved neste kollisjon. 

Lenke til kommentar

Som regel i raytracing vil man sende shadow rays i retning av kjente lyskilder, altså uavhengig av refleksjonsvinkelen, og gjøre lignende beregninger av virkningen fra lyskilden som man ville gjort ved den vanlige raster-projiseringsmetoden. Så kan man i tillegg reflektere strålen skarpt, og også sample tilfeldige stråler for diffus indirekte belysning. Underveis kan man anslå hvor stor betydning en stråle vil ha for fargen på pixelen, og avbryte beregninger som virker ubetydelige. Stråler som ikke avbrytes på denne måten, kan avslutte med å treffe en konstant lyskilde, som et punkt på himmelen.

Lenke til kommentar
  • 4 uker senere...

Men er det teknisk mulig å teste nyeste grafikkinstillinger og strålesporing med GTX 1080 ti?

Eller hva er det som gjør det ikke mulig?

 

Gamle grafikkort er spesialisert til å projisere polygoner direkte til skjermen. Strålesporing er fundamentalt annerledes, og innebærer å søke etter skjæringspunkter mellom stråler og flater. Det har likevel (med masse knot) vært mulig å utnytte GPU-ene til å implementere strålesporing, og nyere grafikkort har også fått større fleksibilitet mht generelle beregninger vha. CUDA etc. Men RTX-kortene har egne kjerner som er spesialisert til strålesporing, og det blir noe helt annet.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...