Gå til innhold

Fysikkprosessering med SLI


Anbefalte innlegg

Selv om dette er i starten så kan man vel forsøke å integrere alt på et kort. Noen har nevnt 2 kjerner i en GPU, men det krever sikkert en del utvikling og lisensiering osv.

 

Men hva om man plasserte GPU og FysX brikker på samme kort? Hvorfor må man på død og liv kjøre 2 kort for å få til dette? Så kan man kjøpe rene GPU kort eller GPU/FysX kort som selvf. vil ha vidt forskjellige prisklasser.

 

Et eksempel på at Fysx har en fremtid er vel at man lenge har ventet med avanserte og høyt realistiske kollisjon/skade modeller i spill. Det har kommet forsiktige initativ i noen bil og fps spill.

 

Men en av de største tingene FysX kan gi oss, tror jeg, er en mye mer dynamisk og realistisk verden i spillene.

 

I BF2 eks. så er alle bitene som fyker rundt mer eller mindre identisk fordi det krever for mye kraft å gjøre det realistisk. I andre spill så får du den samme predefinerte bulken uansett situasjon, samme hullet i veggen osv.

 

Tenk deg en verden som aldri ga helt lik fysisk konsekvens/forandring av en handling.

Endret av Theo343
Lenke til kommentar
Videoannonse
Annonse
Du tar feil; Det ER trivielt å utnytte CPU-kjerne nummer to for å kjøre spill vesentlig raskere  :tease:

 

Men det krever normalt en strukturell endring av spillet slik at dets komponenter splittes i flere tråder/prossesser. Dette gjøres av nyere spill, men ikke av eldre..

 

Hvis spillprodusentene benytter fysikk-driverene til Havok tar disse driverene seg av parallelliseringen, slik at det er helt transparent for "spillet" om fysikken kjøres i en cpu eller på en gpu.

:cool:

5789840[/snapback]

Hvilke nyere spill er det du snakker om, Quake4? Hva var ytelsesøkningen i spillet ved å benytte begge kjerner?

5789882[/snapback]

 

Hei igjen :)

Svarer med å sitere fra http://www.firingsquad.com/hardware/quake_...mance/page4.asp

Talk about understatement of the year (or what’s left of it). While it isn’t optimized for AMD64, frame rates on a dual-core Athlon 64 X2 3800+ are 63 percent faster at 800x600 with threading enabled. The 4800+ also feeds back good gains.

På norsk: For to AMD prossessorer med samme klokkehastighet, men med henholdsvis en eller to kjerner vil Quake 4 i snitt være 60% raskere. Dette er forbeholdt at man setter grafikkinnstillingene slik at det er CPU og ikke GPU som er flaskehalsen i systemet. Hvis man stiller oppløsningen så høyt at GPUen er flaskehalsen vil naturlig nok ikke 2 CPUer hjelpe.

;)

 

Med tanke på at XBOX360 har 3 prossessorkjerner vil sansynligvis alle større fremtidige spill (som er tenkt å kjøre både på pc og Xbox) være optimalisert for å kjøre på flere CPUer samtidig.

Lenke til kommentar
Men hva om man plasserte GPU og FysX brikker på samme kort? Hvorfor må man på død og liv kjøre 2 kort for å få til dette? Så kan man kjøpe rene GPU kort eller GPU/FysX kort som selvf. vil ha vidt forskjellige prisklasser.

5790298[/snapback]

Det høres ut som den beste løsningen, men nå er det engang slik at det er forskjellige produsenter og rettigheter til de forskjellige komponenetene. Det er garantert ikke fritt frem å kombinere de på et kort.

Skal man sette det litt på spissen ville det også vært genialt å lage et HK som både hadde sokkel for Intel og AMD for å dra nytte av fordelene de forskjellige produsentene hadde, men det skjønner vi at ikke er mulig. Noe av de samme prinsippene vil nok også hindre en kombinasjon av PhysX og f.eks ATI-GPU på samme kort.

Lenke til kommentar
ser for meg i fremtiden et kort, med DC kjærne. en fysikk og en til grafikk. helst ikke 2 separate som noen skjermkort kommer i dag men som en X2

5788918[/snapback]

Nå variserer definisjonen av "en kjerne" fra person til person man prater med, men jeg vil påstå at dette allerede er gjort. Sånn jeg forstår det skal den kommende forhåndstitten vise grafikk på en GPU og fysikk på den andre i SLI-oppsettet. Grunnen til denne fordelinga er at driveren er langt fra ferdig utviklet og ikke støtter lastbalansering ennå. I følge presentasjonen til Nvidia skal minimumskravet bli geforce 7600GS (les: ett skjermkort og ikke noe SLI). Sammen med det GDIRaptor sier om at driverversjon 90 skal støtte fysikk, så tolker jeg det til at fra og med den driveren skal lastbalansering støttes. Lastbalansering er essensiellt for at én GPU skal kunne jobbe meg både fysikk og grafikk. Så når denne driveren kommer så har vi altså en "cual core" GPU/PPU på ett eneste skjermkort. En GPU er forsåvidt bygget opp som en "multicore" brikke i utgangspunktet. Hver "shader processor", "pixel pipeline" og "vertex pipeline" er egentlig en slags spesialprosessor. Når en eneste GPU har en haug med slike spesialprosessorer på en brikke så vil jeg kalle det en "multikjerne prosessor".
Lenke til kommentar

Mozze:

Siden det ikke er Nvidia og Ati som lager skjermkortene, men skjermkortprodusentene, så vil jeg tro at de kan få lisens til å lage kort som inneholder begge deler. Hvorfor skulle de nektes det så lenge de betaler for det?

 

Å sammenligne dette og hovedkort med evt. 2 forskjellige podusentsokler og som krever vidt forskjellige tilbehør på kortet blir litt søkt. Det blir mer som å kjøre ATI og Nvidia i dualgpu på samme skjermkort, men alikevel ikke like komplisert som intel og amd på samme hovedkort.

Endret av Theo343
Lenke til kommentar
Kanskje noen da kan svare meg på hvordan man skal få til dette når det øyensynlig er ikke-trivielt å utnytte CPU-kjerne nummer to til å kjøre spill vesentlig raskere.

5789403[/snapback]

Ja jeg kan! Du tar feil; Det ER trivielt å utnytte CPU-kjerne nummer to for å kjøre spill vesentlig raskere :tease:

 

Men det krever normalt en strukturell endring av spillet slik at dets komponenter splittes i flere tråder/prossesser. Dette gjøres av nyere spill, men ikke av eldre..

 

Hvis spillprodusentene benytter fysikk-driverene til Havok tar disse driverene seg av parallelliseringen, slik at det er helt transparent for "spillet" om fysikken kjøres i en cpu eller på en gpu. :cool:

5789840[/snapback]

Jeg tror du er inne på noe her. De fleste spill bygges opp rundt kjente "spillmotorer" som "kjerne" i programmet. Mange spill kan bygges på en eneste spillmotor. Jeg tror at en spillmotor kan brukes som base i spill i opp til ca 2 år før den blir utdatert. Dvs. at det tar litt tid fra muligheten med doble prosessorer kommer ut til det utvikles en spillmotor som kan utnytte mulighetene. (Og for øyeblikket virker det som utviklerene av spillmotorer henger ganske langt etter)

 

Vil disse fysikkmotorene gi bedre ytelse i noen av dagens spill?

5788432[/snapback]

Jeg tror ikke det siden spillmotorene må utvikles spesielt for å ta i bruk mulighetene. Blandt annet må spillmotoren skrives spesiellt for å kjøre på en GPU. For at den ekstra beregningskapasiteten for fysikk skal utnyttes må også spillene utstyres med langt mer fysikk enn i dag. F.eks at en murvegg må designes om fra en diger flat boks til å bestå av mange individuelle mursteiner som kan ramle individuellt om veggen ødelegges.

Lenke til kommentar
Du tar feil; Det ER trivielt å utnytte CPU-kjerne nummer to for å kjøre spill vesentlig raskere  :tease:

 

Men det krever normalt en strukturell endring av spillet slik at dets komponenter splittes i flere tråder/prossesser. Dette gjøres av nyere spill, men ikke av eldre..

 

Hvis spillprodusentene benytter fysikk-driverene til Havok tar disse driverene seg av parallelliseringen, slik at det er helt transparent for "spillet" om fysikken kjøres i en cpu eller på en gpu.

:cool:

5789840[/snapback]

Hvilke nyere spill er det du snakker om, Quake4? Hva var ytelsesøkningen i spillet ved å benytte begge kjerner?

5789882[/snapback]

 

Hei igjen :)

Svarer med å sitere fra http://www.firingsquad.com/hardware/quake_...mance/page4.asp

Talk about understatement of the year (or what’s left of it). While it isn’t optimized for AMD64, frame rates on a dual-core Athlon 64 X2 3800+ are 63 percent faster at 800x600 with threading enabled. The 4800+ also feeds back good gains.

På norsk: For to AMD prossessorer med samme klokkehastighet, men med henholdsvis en eller to kjerner vil Quake 4 i snitt være 60% raskere.

5790332[/snapback]

Takker for link, ser frem til å se Oblivion sin skalering også. Det har i grunnen frustrert meg at spill ikke har dratt nytte av to kjerner raskere, og 60% er absolutt vesentlig raskere. Når det gjelder trivielt, er det nok mange som kan fortelle deg at parallellisering er generelt ikke trivielt, og spesielt ikke for FPS spill.

 

Dersom drøyt 60% er maks av skalering til to kjerner (forutsetter at Quake 4 fortsatt var helt CPU begrenset - det er jo ikke sikkert), kan det vise seg meget krevende å få utnyttet en GPU sin regnekraft, men økt kompleksitet fra mer realistiske effekter kan bli muliggjort. Men både Physx og GPU forventer da at spillutviklere programmerer spillene sine for å utnytte disse, jeg tror den sitter langt inne, sannsynligvis har de mer enn nok med å tilfredstille de nye spillkonsollene, samt utnytte stadig økende antall kjerner, sett deg selv inn i investor-stolen, hva ville du gjort?

 

Tror ellers du blander sammen begreper, driver, kompilator, bibliotek og API er forskjellige ting.

Lenke til kommentar

khmoe: Som kjent fungerte matteprosessoren (x87, FPU) til 386 og 486 dårlig fordi det var en egen brikke og dermed hadde svært lang latency for kommunikasjon med resten av CPUen. Ytelsen gikk drastisk opp når denne ble integrert på samme kjerne som resten. Alle x86-CPUer etter 486SX har matteprosessoren integrert.

 

Jeg tror ikke det er like viktig å ha lav latency og høy båndbredde mellom grafikk og fysikk-beregningene, men det kan jo vise seg å ha en viss effekt.

Lenke til kommentar

Husker den eldgamle fiskesimulatoren "El Fish" hvor maskinen kunne lage/mutere/krysse fisk, og hvor man senere kunne plassere disse i et akvarium. Kalkuleringen/render for hver fisk må ha tatt flere timer på min 486SX, men på en DX fløy det unna på kanskje 10-15 minutter? Fikk skikkelig bakoversveis på den tiden :)

 

EDIT: Nå var da 486SX en 486DX uten matteprosessor?

Endret av Boye
Lenke til kommentar
EDIT: Nå var da 486SX en 486DX uten matteprosessor?

5792048[/snapback]

 

486SX var 486DX uten mattekoprosessor ja. 486 var den første og eneste prosessoren fra intel hvor sx betyr uten mathcoprosessor og dx betyr med. Både 386SX og 386DX manglet onboard mattekoprosessor. SX på 386 betyr 16bit external databus, DX betyr 32bit.

Endret av johneinar
Lenke til kommentar

Ser at folk mener det er trivielt å legge til SMP-støtte til spill og applikasjoner, men vi vet jo at det skjer jo ikke. Eks BF2 har de heller ikke klart å legge til denne støtten. Og ofte er det kun _veldig_ modent programvare som har denne støtten i seg.

 

PS: Vet vi om noe som utnytter disse korta/utvidelsene? (Skumma litt fort igjenom disse tre sidene, muilg det var noe her)

Lenke til kommentar

Husker den gangen jeg kjøpte 3D-kort før de fleste andre. Enkelte av kameratene mine var veldig skeptiske til at noe sånt ville fungere noe særlig, men de endret fort mening da de fikk se mitt "superraske" 3Dfx Voodoo Graphics 3D-kort i aksjon. :p

 

Skal bli spennende å se om fysikkakseleratorer vil bli ansett som en revolusjon på samme måte som 3D-kortene ble den gangen, blir veldig spennende å se hva utviklerne får brukt den nye teknologien til i praksis i allefall.

Lenke til kommentar
,21/03-2006 : 21:09]Jeg snublet over Denne artikkelen på theinquirer.. Les.

5789998[/snapback]

Jeg sitter og leser den nå og ser de er ganske kritiske. De har en del poenger men akkurat dette argumentet vil jeg trekke i tvil:

The biggest limitation of this approach is the fact that you need to devote a GPU to physics, you can't load balance or split time. This kind of makes sense if you think about the data that is needed by the GPU, do you swap physics data out for textures every one third of a frame? Maybe a 512MB card would have the room, but the majority of cards out there are not quite that memory rich.

For det første er det svært mange spill som bruker mindre enn 256MiB minne (og dermed ikke opplever noen ytelseøkning ved økning av minnemengden til 512MiB). Det er altså svært mange grafikkort som har mye ledig plass i minnet til fysikkdata. For det andre skiller fysikkberegninger seg fra grafikkberegninger ved at fysikk er langt mindre krevende på minnemengde. Det trengs ikke en haug med lag av teksturer og dekking av hele overflater for å beregne fysikk. Det som trengs er 3 punkter med 1 byte for hver av XYZ-retningene per objekt som skal begegnes for å holde styr på posisjonen til objektet. Legg så til 3 Byte for spinn, 3 Byte for hastighet og retning, og 3 Byte for fysiske data som fleksibilitet, bruddstyrke og overflatespenning så er vi oppe i 12 Byte per objekt. Det samme objektet trenger kanskje 512x512 pixler teksturer * 3 farger a 1 Byte * (3 teksturlag + 1 bumpmap) / 10 (komprimeringsfaktor) = 0,3 millioner bit for å beregne grafikken. Selv om mange objekter kan bruke den samme teksturen (f.eks 1000 små steiner) så trenges det likevel 96% mindre minnekapasitet for å holde styr på 1000 steiner.

 

The reason I personally am not jumping up and down with joy at this announcement like I did with Ageia is simple, SLI physics does not come close to doing what Ageia does. SLI physics is eye candy at the moment, and not much more while Ageia does the real thing. What am I talking about? Look at what is spun as a strength by Nvidia on slides six and seven ("Traditional Physics" and "Integration of SLI Physics") as shown on Rojakpot. Here lie footnotes, and as the saying goes, lies, damn lies and statistics.

Det var da svært til bastante påstander uten å ha testet noen av de ferdige produktene mot hverandre. Resten av artikkelen ser også ut til å inneholde mye FUD.

Endret av Simen1
Lenke til kommentar
Kanskje noen da kan svare meg på hvordan man skal få til dette når det øyensynlig er ikke-trivielt å utnytte CPU-kjerne nummer to til å kjøre spill vesentlig raskere.

5789403[/snapback]

 

Ja jeg kan!

Du tar feil; Det ER trivielt å utnytte CPU-kjerne nummer to for å kjøre spill vesentlig raskere :tease:

 

Men det krever normalt en strukturell endring av spillet slik at dets komponenter splittes i flere tråder/prossesser. Dette gjøres av nyere spill, men ikke av eldre..

 

Hvis spillprodusentene benytter fysikk-driverene til Havok tar disse driverene seg av parallelliseringen, slik at det er helt transparent for "spillet" om fysikken kjøres i en cpu eller på en gpu.

:cool:

5789840[/snapback]

 

Njaaa... hovedcpoenget her er vel heller det at fysikkdelen av utregningene nå kan flyttes over på GPU etter behov. Dette har 2 veldig viktige fordeler:

 

- Du har med nyere PC'er veldig ofte masse ledig kapasitet på GPU, fordi det ikke finnes raske nok CPU'er. Da får du i praksis "gratis" ytele siden du kan benytte den ekstra GPUkraften til å avlaste CPU og få utnyttet alle systemressursene fullt ut.

 

- En GPU er mye MYE mer effektiv til å renge fysikk enn en CPU. I stedet for å bruke dyrebar CPUtid for å regne fysikk kan en GPU gjøre tilsvarende oppgave på mye kortere tid. Det er selvfølgleig ingenting som stopper deg fra å bruke kjerne #2 i en X2 til å regne fysikk (og dette vil nok sikkert også gjøres til en viss grad), men en GPU vil væremye mer kostnadseffektiv til oppgaven slik at kjerne #2 kan helelr brukes til andre mer generelle oppgraver som kan paralelliseres også.

 

Jeg kan tenke meg at det vil finnes load-balancing etterhvert som sørger for at lasten mellom GPU som regner fysikk og "ledige" CU kjerner blir optimal for flest antall FPS.

 

-Stigma

Lenke til kommentar
Til deg over: et nytt spill er Oblivion, som straks er i butikken.

 

Jeg snublet over Denne artikkelen på theinquirer.. Les.

 

Det hevdes blant annet at fysikk som kan fungere på GPU'er med Havok, i første omgang i alle fall, ikke er like "ekte" som PhysX, fordi:

Agiea og physX kan for eksempel få steiner fra en eksplosjon til å sprette når de treffer noe, kan få bølger/ringer i vannet til å "interacte" (norsk ord?  :blush: ) Med deg hvis du vasser i vannet, osv. Dette kan ikke Nvidias SLI Physics, ikke enda i alle fall. Det kan kun lage det pent, altså steiner kan tegnes osv, men ikke sprette av bilen din... Vet ikke hvor mye hold det er i disse påstandene, men.

 

Jeg ble litt spent med en gang jeg leste artikkelen her på hw, og er vel spent på å se hvordan det går. Men dersom flest utviklere velger PhysX fordi det er billigere, og kortet i seg selv blir MYE billigere enn å ha to GPU'er i SLI (evt CrossFire), så blir jo valget enkelt: PhysX.

5789998[/snapback]

 

Det kan sikkert stemme det, at PhysX'en er mer feature-rik iogmed at den er spesifikt laget for dette. Disse begrensingene forsvinner dog helt sikkert med neste generasjon (G80, eller ihverfall den etter der igjen) ved at de ligger denne lille ekstra muligheten inn i hardware for å bedre støtte fysikken.

 

-Stigma

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...