Gå til innhold

Microsoft med egen fysikkmotor


Anbefalte innlegg

Hm hvorfor satser dem heller ikke på å utnytte en av kjernene

på dual core systemer? De fleste spill jeg har prøvd frem til

i dag støtte ikke dual core, og jeg kunne veldig gjerne tenkt

meg å bruke den andre kjernen til noe nyttig i de spillene

som trenger fysikk regning.

6358570[/snapback]

Vel, Oblivion som var langt i utviklingen når dual core begynte å snakkes om var jo fremsynte nok til å lage en egen dual-core thread handler, så allerede nå finnes det spill som (til en viss grad) benytter seg av dual core der det finnes. Mener å huske at det fremst var Radiant AI og litt andre ting som oftest ble delegert til den andre kjernen.

 

Det vil derfor være merkelig om ikke det blir mer eller mindre standard for alle store tittler som kommer ut nå. Klarte utviklerene til Oblivion å tillpasse seg, så klarer sikkert de andre det også.

Lenke til kommentar
Videoannonse
Annonse
- Another interesting issue that AGEIA brought up is that since the Havok FX API, and any API that attempts to run physics code on a GPU, has to map their own code to a Direct3D API using Shader Models then as shader models change, code will be affected. This means that the Havok FX engine will be affected very dramatically every time Microsoft makes changes to D3D and NVIDIA and ATI makes changes in their hardware for D3D changes (ala DX10 for Vista). This might create an unstable development platform for designers that they may wish to avoid and stick with a static API like the one AGEIA has on their PhysX PPU.[/i]

 

Vel dette stemmer jo ikke Havok FX bruker CG og har krav til SM3 og som alle vet så er cg uavengi av FP/PS VS osv.. versoner man har såvel som om man bruker OGL eller DG.

 

Og etter det jeg vet så har Havok FX støtte for rigig body kolisjoner, enkel AI, klær, vann osv. Jeg vet ikke hva folk mener med eye candy, men jeg mener nå at dette er langt over.

Lenke til kommentar
Det kan jo hende at Ageia eller Havok har noen patenter som andre blir nødt å lisensiere fra dem. Kanskje de vil tjene penger på det uansett hva som skulle skje.

6354475[/snapback]

Et lite søk gir følgende:
1  20060106591  System with PPU/GPU architecture

2  20060100835  Software package definition for PPU enabled system

3  20050165874  Parallel LCP solver and system incorporating same

4  20050165873  Method of operation for parallel LCP solver

5  20050162433  Method and program solving LCPs for rigid body dynamics

Da har vi vel igrunnen svaret.
Lenke til kommentar
Kanskje PPU etterhvert blir integrert i CPU sånn som matteprosessoren i sin tid ble det?

6359066[/snapback]

 

For meg så hørest det ganske logisk ut, spesielt ettersom instruksjonssettet til PPU'n/DSP'n da vil bli standardisert, å måtte gå via (tunge?) directx api'er hørest ut som en bakdel. Skulle tro det var bedre å gå rett på ppu'n, ved å kompilere kode for den direkte slik som for CPU. Tror en PPU vil ha et mer statisk instruksjonssett enn en GPU der det skjer mye nyutvikling innenfor effekter.

Lenke til kommentar
  • 3 uker senere...
Kanskje PPU etterhvert blir integrert i CPU sånn som matteprosessoren i sin tid ble det?

6359066[/snapback]

 

For meg så hørest det ganske logisk ut, spesielt ettersom instruksjonssettet til PPU'n/DSP'n da vil bli standardisert, å måtte gå via (tunge?) directx api'er hørest ut som en bakdel. Skulle tro det var bedre å gå rett på ppu'n, ved å kompilere kode for den direkte slik som for CPU. Tror en PPU vil ha et mer statisk instruksjonssett enn en GPU der det skjer mye nyutvikling innenfor effekter.

6365839[/snapback]

 

Tja, ser for meg at de kan ha utvikling der også, som med alt annet, forskjellige måter å kalkulere friksjon på en overflate, forskjellige materialer, vesker etc etc.

 

Men det finnes jo helt klart begrensinger her... med mindre de skal begynne å simulere verden ned til kvantenivå er det vel mest fysikk av type newton som er interessant å simulere. :) Deretter er det ren number crunching med tanke på hvor mange objekter/kontaktpunkter/flater det er snakk om å kalkulere. :)

 

Ett hovedargument for at dette ikke blir integrert i cpu, men mere sansynlig i gpu er for min del at ppu'ens hoved applikasjon (og mest sansynlig eneste på en god stund) er til spill. Og det vil være uinteressant for f.eks en kontorpc å ha den ekstra kostnaden som en PPU vil utgjøre. I så måte vil en integrering med en komponent som vi gamere allerede betaler for ha et større poeng.

 

Utviklere av PPU'er burde gått til nvidia og ati og prøvd å ordne en deal der, enten det eller så burde nvidia og ati begynne å utvikle egne chipper.

 

Hvis de klarer å gi ut en god, competitive ppu integrert i sine GPU'er, er markedet for en separat PPU dødt. :hmm:

Endret av Dipso
Lenke til kommentar
Ser ut som det er mange her som ikke har lest opp om dette temaet, GPU som PPU.

 

GPU-som-PPU er ikke fysikk, det er effekt-fysikk:

 

 

- The lack of a real write-back method on the GPU is also going to hurt it in the world of physics processing for sure. Since pixel shaders are read-only devices, they can not write back results that would change the state of other objects in the "world", a necessary feature for a solid physics engine on all four counts.

6358018[/snapback]

Som om ikke PPU også kun beregner svært forenklet effekt-mekanikk-fysikk. Nøyaktighet og hvilke effekter som beregnes er opp til spillprodusenten å vurdere, begge deler er akkurat like mulig å beregne på GPU som på PPU. Den eneste forskjellen er ytelse (som selvfølgelig avhenger av mye rart)

 

Nvidias 7x00-serie har som du nevner ytelseproblemer med writeback. Problemet skal være betydelig mindre på ATIs X1x00-serie, og man kan også forvente en stor opprydding i problemet på neste generasjon nvidia-brikke. Når det er sagt så vil det ikke si at PPU har uendelig rask writeback. Særlig ikke dagens verson som kjører på en delt PCI-buss. Den bussen er en langt større flaskehals på writeback enn PCIe og AGP-bussene. Argumentet om writeback brukes for å sverte all bruk av fysikkberegninger på gpu for all fremtid selv om det kun er et problem på nvidias 7x00-serie.

 

Et faktum som går hus forbi veldim mange er at massivt paralelle beregninger på teksturer og lys ikke bare er fysikk allerede men også er relativt lett å skrive om til andre områder av fysikken (mekanikk) og få det til å yte bra på massivt parallelle fysikkberegninger innen mekanikk også. Et annet faktum som har gått mange hus forbi er at den teoretiske ytelsen på GPU er mye høyere enn på PPU fordi GPUer er noe som har blitt optimalisert i et helt tiår, mens PPU er på et svært tidlig stadium. PPU yter rett og slett ikke bra i teorien. Selv om PPU har høyere effektivitet (% ytelse i praksis av teoretisk ytelse) enn GPU så gar GPU så mye råere teoretisk ytelse å slå i bordet med at det blir rått parti likevel.

Lenke til kommentar
Hm hvorfor satser dem heller ikke på å utnytte en av kjernene på dual core systemer? De fleste spill jeg har prøvd frem til

i dag støtte ikke dual core, og jeg kunne veldig gjerne tenkt

meg å bruke den andre kjernen til noe nyttig i de spillene

som trenger fysikk regning.

Min lille teori: Fordi det ikke er nok kraft i dual-core. Dual-core gir ingen magisk ekstra CPU kraft i forhold til tidligere (Ved hjelp av flere kjerner klarer vi nå å holde tritt med Moores lov, ikke raskere enn). Spillutviklere vil over de neste årene plukke opp kraften som finnes ledig i den andre kjernen. Dessuten er det så ineffektivt å gjøre beregningene på en CPU i forhold til en PPU, når spill virkelig kommer til å gjøre mange fysikk beregniner (simulering av klær holder) hjelper det mye med PPU.

6358629[/snapback]

CPU med så lite som to pipeliner optimalisert for generell kode har mikroskopisk teoretisk ytelse å ta av i forhold til GPU (og selv PPU).

 

Omtrentlige teoretiske ytelser:

CPU: ~3 GFLOPS

dobbel CPU: ~6 GFLOPS

Aeigas PPU: ~110 GFLOPS

Radeon X1900XTX GPU: ~300-500 GFLOPS

geforce 7900GTX GPU: ~400 GFLOPS

2x Radeon X1900XTX GPU i crossfire: ~600-1000 GFLOPS

 

Det blir altså et kvantesprang i muligheter for spillprogrammererne mellom CPU og PPU/GPU. Mellom enketkjerne og dobbeltkjerne CPU gir det bedre ytelse men ikke et kvanteaprang i mulige ting som kan implementeres i spill.

Lenke til kommentar
Kanskje PPU etterhvert blir integrert i CPU sånn som matteprosessoren i sin tid ble det?

6359066[/snapback]

CPU har alt for lite minnebåndbredde til å drive med massivt parallelle beregninger. GPU egner seg langt bedre til å gjøre fysikk. PPU og GPU blir nok en og samme ting ganske snart, mens å spleise massivt parallelle prosessorer med CPU ligger nok noen år frem i tid.

 

Opteron får mulighet for dette ganske snart i flersokkelsystemer (SMP), men det er rettet inn mot HPC. Om et år eller to skal Opteron få integrert massivt parallelle SPU'er, men det ligger nok minst 3-4 år frem for desktop.

Lenke til kommentar
har du eitpar url om det? =)

6477127[/snapback]

http://www.theregister.co.uk/2006/04/21/dr...dule/page2.html

http://www.drccomputer.com/pages/products.html

http://www.google.no/search?hs=zOx&hl=no&c...=S%C3%B8k&meta=

http://www.theinquirer.net/default.aspx?article=31398

http://www.linuxelectrons.com/article.php/2006032009585692

http://www10.edacafe.com/nbc/articles/view...rticleid=263946

http://www.theregister.co.uk/2006/05/03/cray_drc/

 

I første omgang kommer det som egne prosessorer som tar opp en standard prosessorsokkel. I følge veikartet til AMD og en del plansjer som florerer på nettet planlegger de "on die special purpose coprocessors" i 2008, noe som trolig blir en kombinasjon av Opteron og disse DSPene. Dette passer forsåvidt utmerket med AMDs planer om modulært CPU-design, utvidelsen av crossbaren i K8L og økningen av minnebåndbredde gjennom 6x FBDIMM-kanaler i 2007/2008.

Lenke til kommentar
  • 4 uker senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...