Gå til innhold

Microsoft med egen fysikkmotor


Anbefalte innlegg

Som jeg har sagt mange ganger, dette kommer til å bli integrerert som egne chipper på grafikk-kortene. Fordi krafige skjermkort og fysikk brikker begge tar sikte på det samme markedet, det blir som når de første 3d akselleratorne kom. Først kommer det som utvidelseskort, så blir det integrert. kanskje blir det som en slags ekspansjon på grafikk kortet.

 

Det er mulig det er levedyktig som ett separat ekspansjonskort, men jeg tror mer på en kombinsajonsløsning.

 

Lanserer nvidia/ati skjermkort med samme funksjonalitet og med bedre eller tilnærmet ytelse tror jeg dagene for et separat kort er talte.

Lenke til kommentar
Videoannonse
Annonse
utifra noke som eg leste på web, da Ageia hadde diskusjon med Havok, så var eine poenget til Ageia, at det koster spillprodusentane mykje penger, for å bruke havok sin løsning, mens Ageia sin løsning er gratis.. eg trur det kommer til å bli litt avgjerande for kva løsning spillprodusentane velger..er trossalt dei som bestemmer kva som kjem til å funke med sitt spel

6352471[/snapback]

Så spillprodusentene kan velge mellom et gratis produkt som få spillere bruker, eller et kostbart produkt som vil virke hos alle (med gode nok skjermkort)? Tough choice... En annen faktor er også hvilken teknologi det koster minst å implementere, regnet i rene arbeidstimer.

Lenke til kommentar
Ageia hadde aldri livets rett, så det argumentet godtar jeg ikke. Jeg synes det er ganske åpenbart at forbrukerne bør bli spart for et fordyrende tilleggskort når disse funksjonene kan gjøres av CPU eller GPU. Så jeg er ikke lei meg for at et fordyrende alternativ blir erstattet av noe billigere og bedre.

6352171[/snapback]

Det at beregningene kan gjøres av CPU/GPU vil ikke si det samme som at det blir billigere. Det ender fort med at man må ha et ekstra skjermkort som dedikeres til fysikkberegninger for å ta unna workloaden. Det er ikke mange idag som har så mye ekstra ubrukte ressurser på GPU'en sin at det enkelt overtat fysikkberegninger uten ytelsesfall.

Fordelen er vel at GPU produsentene kan lage kort som er billigere enn f.eks Ageia i og med at de allerede har den nødvendige teknologien i produksjon.

Lenke til kommentar
utifra noke som eg leste på web, da Ageia hadde diskusjon med Havok, så var eine poenget til Ageia, at det koster spillprodusentane mykje penger, for å bruke havok sin løsning, mens Ageia sin løsning er gratis.. eg trur det kommer til å bli litt avgjerande for kva løsning spillprodusentane velger..er trossalt dei som bestemmer kva som kjem til å funke med sitt spel

6352471[/snapback]

 

vel du må virkelig skjekke kildene dine 50000$ pr titel/platform koste PhysX for komersiele title, men det er gratis til ikke komersielt bruke. Så alle amatører kan teste og leke seg med det noe man ikke kan med Havok. Det skal jo sies at PhysX funker også uten hw støtte.

 

Som jeg har sagt mange ganger, dette kommer til å bli integrerert som egne chipper på grafikk-kortene. Fordi krafige skjermkort og fysikk brikker begge tar sikte på det samme markedet, det blir som når de første 3d akselleratorne kom. Først kommer det som utvidelseskort, så blir det integrert. kanskje blir det som en slags ekspansjon på grafikk kortet.

6352819[/snapback]

 

Har du noen kilder med linker?

 

Hvorfor i huleste skullen man integrere en PPU på et skjermkort, dette ødelegger jo mye av datastrømmen og man vil jo også trenge synkronisering av datastrømmen og en synkende båndbredde. Og en PPU og GPU er jo nesten helt når man tenker operasjonsmåte, bare se på fragment shadere.

Endret av Giddion
Lenke til kommentar

Hvem husker vel ikke tileggskort med matteprosessor? Ok, kanskje ganske få... Den tid er svunnen, men det er jo litt rart å se tilbake, ati rage pro hadde vel 8MB minne, eller. Jeg har et slikt kort liggende.

 

Så microsoft skal lage algoritmene, og på kortfronten skal man altså få velge fritt?

Lenke til kommentar
Det er litt synd hvis MS' løsning utelukker Ageia. Jeg syntes de på alle måter har livets rett. Det virker nestem om de fikk den store ballen til å rulle ved å lansere PhysX. Nå skal 'alle' andre levere fysikkløsninger som er 'bedre' og basert på helt andre ting enn PPU. Jeg som andre vil selvfølgelig ha det beste, billigste og mest utbredte, men jeg heier enda litt til på Agiea som blir David mot Goliat(ene).. ;)

6352123[/snapback]

 

Ageia hadde aldri livets rett, så det argumentet godtar jeg ikke. Jeg synes det er ganske åpenbart at forbrukerne bør bli spart for et fordyrende tilleggskort når disse funksjonene kan gjøres av CPU eller GPU. Så jeg er ikke lei meg for at et fordyrende alternativ blir erstattet av noe billigere og bedre.

6352171[/snapback]

Litt tidlig å si om Ageia har livets rett. Jeg ville nesten tro du hadde sagt noe lignende hvis dette var en debatt om de første GPU'ene. GPU'en er en massiv paralell arkitektur og er derfor mye bedre å bruke en CPU'en til det GPU'en nå gjør. Tiden vil vise om PPU'en er så mye mer effektiv på fysikk beregniner enn GPU/CPU at den kommer til å trenges. Billigere på CPU/GPU ja, men ikke bedre om Ageia gjør tingene sine rett da hverken GPU og spesiellt CPU på langt nær er så spesialisert på typiske fysikk beregniner som en PPU, skulle bare mangle da CPU og GPU bare vil generaliseres mer og mer (virtuell CPU, shadere, etc.).

 

Nok av fysikk berergniner som skal gjøres om utvikler legger opp til det; simulering av klær, massevis av objekter, bøying av objekter, væske simulering, ødeleggelse av omgivelser/bygninger. Får bare håpe det kommer mer av slikt i spill, PPU'en har for mye kraft i forhold til hva som finnes i spill i dag.

Endret av Shell
Lenke til kommentar

ageia med sitt ekstra kort til masse peng er død og begravet lenge før vi gidder å vurdrere det. Jeg kommer aldri til å kjøpe det.

 

Det mest sannsynlige som vil skje er at nvidia/ati utvikler egne brikker, eller en lur løsning for å avhjelpe fysikkutregning ... hvis det virkelig er et behov for det.

 

Det vil også være naturlig å gjøre nettopp dette på et grafikkort, fordi det er her materialet som skal være grunnlaget for utregning befinner seg. Nå så må man opprette en parallell 3D verden i minne som man bedriver utregninger mot, samt driver kollisjonsdeteksjon mot. Like greit å få alt dette på skjermkortet. Når skjermkortet også har mulighet for å flytte, rotere, deformere, med mer on-the-fly, så sier det seg selv at det er her muligheten er for nettopp dette.

Lenke til kommentar
Hvem husker vel ikke tileggskort med matteprosessor? Ok, kanskje ganske få... Den tid er svunnen, men det er jo litt rart å se tilbake, ati rage pro hadde vel 8MB minne, eller. Jeg har et slikt kort liggende.

 

Så microsoft skal lage algoritmene, og på kortfronten skal man altså få velge fritt?

6353849[/snapback]

Det er nok på en måte bra siden det ikke favorisérer et merke grafikkbrikker, men på en annen side dumt siden det vil hindre spill i å bli lansért for Linux.
Lenke til kommentar
Det er litt synd hvis MS' løsning utelukker Ageia. Jeg syntes de på alle måter har livets rett. Det virker nestem om de fikk den store ballen til å rulle ved å lansere PhysX. Nå skal 'alle' andre levere fysikkløsninger som er 'bedre' og basert på helt andre ting enn PPU. Jeg som andre vil selvfølgelig ha det beste, billigste og mest utbredte, men jeg heier enda litt til på Agiea som blir David mot Goliat(ene).. ;)

6352123[/snapback]

Ageia hadde aldri livets rett, så det argumentet godtar jeg ikke. Jeg synes det er ganske åpenbart at forbrukerne bør bli spart for et fordyrende tilleggskort når disse funksjonene kan gjøres av CPU eller GPU. Så jeg er ikke lei meg for at et fordyrende alternativ blir erstattet av noe billigere og bedre.

6352171[/snapback]

Jeg kunne ikke vært mer enig :)

 

Jeg har ikke noe i mot Aeiga som selskap, de må veldig gjerne konkurrere med gigantene, men for å gjøre det må de ha et produkt som er konkurransedyktig. Dagens PhysX er alt for svak for å kunne hamle opp med selv middelmålige skjermkort. Jeg håper virkelig de lykkes med å lage en PPU som er konurransedyktig (gir omtrent like mye for pengene som GPU'er til samme prisklasse) men det ser foreløbig svart ut for det. PhysX har så vidt kommet i butikkene, og det er nok lenge til neste versjon dukker opp.

 

Hva med både GPU og PPU på samme PCB?

Da vinner jo alle - inkl. Ageia  :tease:

6352271[/snapback]

... bortsett fra forbrukeren som må betale betydelig mer for det langt dyrere kortet. Ytelsen til PPU er uansett ikke så mye å skryte av i forhold til GPU så det er mye mer praktisk å spare seg silisiumet og kostnadene med all elsktronikken rundt og heller la oss få råd til en litt råere GPU som gjør begge deler glimrende.

Lenke til kommentar

Kan man få fysikk til å fungere tilfredstillende på et skjermkort? Det er nevnt i tråden spørsmål som

 

- Er ikke skjermkort allerede overbelastet i spillene?

- Hva med ATIs løsning hvor man kan bruke eks. et X1600Pro kort til fysikk og et X1900XT kort til grafikk? X1600Pro sies å være 2-4 ganger raskere enn Physx kortene, samt nesten halve prisen.

Endret av Theo343
Lenke til kommentar
Eg håper at MS ikkje får suksess med sin fysikkmotor, da det vil skade både spillindustrien(på lang sikt) og oss som bruker andre OS en microsoft sine. propitere(feilstava..) løysinger er ein uting, som skader/forulemper forbrukaren, og hindrer mangfold og konkuranse.

6356291[/snapback]

Ja akkurat. Siden Microsoft vil sponse spillutviklere, så må vi nok se langt etter spill for Linux og Mac OS X.
Lenke til kommentar

Ser ut som det er mange her som ikke har lest opp om dette temaet, GPU som PPU.

 

GPU-som-PPU er ikke fysikk, det er effekt-fysikk:

 

 

- The lack of a real write-back method on the GPU is also going to hurt it in the world of physics processing for sure. Since pixel shaders are read-only devices, they can not write back results that would change the state of other objects in the "world", a necessary feature for a solid physics engine on all four counts.

 

- Another interesting issue that AGEIA brought up is that since the Havok FX API, and any API that attempts to run physics code on a GPU, has to map their own code to a Direct3D API using Shader Models then as shader models change, code will be affected. This means that the Havok FX engine will be affected very dramatically every time Microsoft makes changes to D3D and NVIDIA and ATI makes changes in their hardware for D3D changes (ala DX10 for Vista). This might create an unstable development platform for designers that they may wish to avoid and stick with a static API like the one AGEIA has on their PhysX PPU.

http://www.pcper.com/article.php?aid=225&type=expert

 

 

XCom_UFO_what_went_off_here_320.png

 

Altså skal du avlaste CPU'en og lage interaktive verdener som kan ødelegges (gøy!) så må du ha en dedikert PPU. GPU er ikke beregnet for fysikk, en PPU er noe helt annet.

 

Derfor håper jeg Ageias PhysX tar av, eller Microsoft får ekte fysikk i DirectX. Det beste hadde naturligvis vært om de hadde teamet opp med Ageia og fått en åpen standard så spill kunne lettere porte til Linux og MacOS.

 

Ageia flyttet fokuset fra GPU og fillrate, fancy texture effekter og antialiasing og over på gameplay/scene interaction. Men business is business and business must grow så NVIDIA og ATI har brukt mye PR på deres effekt-fysikk i det siste.

 

 

Kanskje Ageias PhysX ikke er så bra med (ageia solver broken, men jeg er en PC gamer og vil ha det beste.

 

 

Hard[OCP] har et eget PPU forum.

http://www.hardforum.com/forumdisplay.php?f=115

Endret av Gambler FEX online
Lenke til kommentar

If a car vanishes through the ground it is because of bad Havok physics. GRAW doesn't use Ageia for physics, only a few effects. GRAW isn't an example of Ageia physics, it's an example of limitiation of non-accellerated physics.

 

Wait for a game that doesn't use havok at all, and all physics (not just effects) are accellerated on the PPU. Interactive environments and destructive architecture.

 

http://www.hardforum.com/showthread.php?t=1067327

Lenke til kommentar

Har fremdeles mine tvil i om det er mulig eller ikke å lage ne løsning som bruker GPU ressurser for å lage interaktiv-fysikk. Dvs. fysikk som påvirker andre objekter, og ikke bare er eye-candy. Slik effekt-fysikk er verdt lite i mine øyne, da vil jeg heller bruke GPU-kraft på tradisjonelle effekter, mer AA osv.

 

ATIs løsning som de demonstrete virket dog som som om den hadde reaktive fysikk objekter, men det er vanskelig å trekke for mange konklusjoner utifra den korte demoen som de hadde.

 

-Stigma

Endret av Stigma
Lenke til kommentar

Hm hvorfor satser dem heller ikke på å utnytte en av kjernene

på dual core systemer? De fleste spill jeg har prøvd frem til

i dag støtte ikke dual core, og jeg kunne veldig gjerne tenkt

meg å bruke den andre kjernen til noe nyttig i de spillene

som trenger fysikk regning.

Lenke til kommentar
- The lack of a real write-back method on the GPU is also going to hurt it in the world of physics processing for sure. Since pixel shaders are read-only devices, they can not write back results that would change the state of other objects in the "world", a necessary feature for a solid physics engine on all four counts.

Godt poeng. Tenkte ikke på dette i det hele tatt, men nå ser jeg problemet med fysikk på GPU. Det er mulig med "write-back" på DirectX 9 (link), men det er en kostbar operasjon og vil garantert gå en del ut over FPS. (vil gjøre seg godt med en GPU for fysikk beregniner alene..). Har en følelse av at fysikk på GPU er totalt underlegen det på PPU nå.

 

Altså skal du avlaste CPU'en og lage interaktive verdener som kan ødelegges (gøy!) ...

Red Faction hadde det og klarte seg fint uten PPU, var ikke så gøy at jeg fullførte spillet heller :)

 

Hm hvorfor satser dem heller ikke på å utnytte en av kjernene

på dual core systemer? De fleste spill jeg har prøvd frem til

i dag støtte ikke dual core, og jeg kunne veldig gjerne tenkt

meg å bruke den andre kjernen til noe nyttig i de spillene

som trenger fysikk regning.

Min lille teori: Fordi det ikke er nok kraft i dual-core. Dual-core gir ingen magisk ekstra CPU kraft i forhold til tidligere (Ved hjelp av flere kjerner klarer vi nå å holde tritt med Moores lov, ikke raskere enn). Spillutviklere vil over de neste årene plukke opp kraften som finnes ledig i den andre kjernen. Dessuten er det så ineffektivt å gjøre beregningene på en CPU i forhold til en PPU, når spill virkelig kommer til å gjøre mange fysikk beregniner (simulering av klær holder) hjelper det mye med PPU.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...