Gå til innhold

Oculus Rift har fått lavere maskinkrav


Anbefalte innlegg

Videoannonse
Annonse

Dette minner om linjefletting for video (eng. "interleaving" og i-en i for eksempel 1080i). Det kommer til å gi stygge hakkende bevegelser på de detaljene som krever at appen oppdaterer bildet oftere enn 45 fps. For eksempel bølger på havet, spillfigurer som beveger seg delvis bak detaljer, håndbevegelser eller løvverk i bevegelse. Det vil ikke se bra ut å bare flytte detaljene lineært for annenhver bilderamme.

 

Jeg er enig i at det finnes stort potensiale for å redusere maskinkravene, men akkurat denne metoden har jeg lite tro på vil se særlig bra ut. Dette tror jeg løses mye bedre i GPUen/programvaren enn i skjermen.

Lenke til kommentar

Slik jeg forsto det når jeg leste teksten, er at de lager et kunstig bilde utifra bildene som vises før og etter det kunstige bildet. De kan dermed lage et bedre bilde enn ved linjefletting. Ulempen blir mer forsinkelse da man må vente 1/90 s pluss den tiden det tar å lage det kunstige bildet, altså minst 11,11 ms. Mulig jeg har misforstått hvordan de gjør dette, har ikke sett video pga dårlig nettforbindelse.

Lenke til kommentar

Dette minner om linjefletting for video (eng. "interleaving" og i-en i for eksempel 1080i). Det kommer til å gi stygge hakkende bevegelser på de detaljene som krever at appen oppdaterer bildet oftere enn 45 fps. For eksempel bølger på havet, spillfigurer som beveger seg delvis bak detaljer, håndbevegelser eller løvverk i bevegelse. Det vil ikke se bra ut å bare flytte detaljene lineært for annenhver bilderamme.

 

Jeg er enig i at det finnes stort potensiale for å redusere maskinkravene, men akkurat denne metoden har jeg lite tro på vil se særlig bra ut. Dette tror jeg løses mye bedre i GPUen/programvaren enn i skjermen.

 

Har førstehånds erfaring med å bruke dette, har brukt ASW ganske mye de to siste dagene og kan bekrefte at det funker innmari bra, jeg kan nå skru grafikken betraktelig høyere opp på spillene enn jeg kunne uten ASW og få silkemyk bildeflyt. Bruker Oculus sitt debugtool for å sru opp grafikken. ASW er bare tilgjengelig for oss med Nvidia kort foreløpig men AMD støtte er rett rundt hjørnet. Forskjellen er magisk. Ingen stygge hakkete bevegelser som man legger merke til tvert om.

 

 

Kombinasjonen av asynchronous timewarp og asynchronous spacewarp og fordelene de gir er ikke en gimmick. At det gjør svakere maskiner i stand til å kjøre VR er stort, personlig synes jeg det er vel så stort at jeg nå kan kjøre opp grafikken i spillene mine til nivå jeg ikke har kunnet tidligere.

 

Her er litt teknisk sakset fra den store verdens veven:

 

"Asynchronous spacewarp is Oculus’s new solution to fix judder caused by positional movement in the playspace. As explained by Iribe, spacewarp takes the app’s two previous frames and analyzes the difference, and then calculates that difference to extrapolate and generate a new synthetic frame. This helps smooth moving objects, even the entire scene, so when you’re moving your hands or body, you won’t have judder or ghosting images. In short, it does this by halving the app’s framerate to 45 fps when it hits a snag and sandwiches in a synthetically generated frame to return it to 90." ATW og ASW trår bare til når det er nødvendig,

 

"Regular time warp polls tracking data again right before vertical retrace occurs, and uses new orientation data (not position data) to rotate the rendered frame to align with the new tracking data. This only accounts for rotations that occured during the frame, not positions, as those can't be handled by a pure 2D image transformation. Position changes induce parallax. But since heads can rotate faster than they can move, time warp is a net improvement.

Asynchronous time warp uses the same idea, but runs the final rendering step (lens distortion correction and time warp) in a separate thread. This makes it possible to interrupt rendering of a frame if it runs past the retrace period. Instead of missing an entire frame, ATW takes the most recently completed frame, time-warps it to the current headset orientation, and then lets frame rendering resume. This can greatly reduce the impact of an application going over render budget once in a while.

Regular (or asynchronous) space warp adds the positional component that's missing from time warp. It handles parallax by using the depth buffer of the rendered frame, and uses some magic to fill in missing pixels."

  • Liker 3
Lenke til kommentar

Jeg påsto ikke at det skulle bli linjeflettet, men dette vil i likhet med linjefletting innføre et sett med bevegelse-artifacts. Ikke linjeflettings-artifacts men en annen type bevegelses-artifacts.

 

Blir det samme funksjonen som bl.a Samsung og Philips har på TVene sine, "smooth motion" som gjør at filmen glir bedre over skjermene. Og ja, det funker veldig bra.

 

Men med en "live" kalkulering, så gjenstår det å an forsinkelse vs ytelse/opplevesne med VR brillene.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...