Gå til innhold

[Løst] PhysX med dedikert kort og AMD GPU


Anbefalte innlegg

Skrevet

Hadde da tenkt til å kjøpe en PC nærmere jul med ett GTX 570. (Evt. nye midrange kort hvis de kommer før jul)

 

Det jeg da lurer på er om jeg kan bruke nVidia kortet som PhysX driver mens jeg bruker ett AMD kort til alle andre grafikk prosesser?

 

Jeg er klar over at PhysX bare er eyecandy, men jeg syntes spill blir mer realistiske når det ligger igjen "shrapnel" av biler, vegger, søyler, kasser, vinduer osv. som sprenger eller blir skutt i filler i spill som støtter PhysX.

 

Takker for svar på forhånd. ^^

Videoannonse
Annonse
Skrevet (endret)

Jepp, det fungerer bra det :)

Men du trenger ikke et 570 viss du skal bare ha det som et physx-kort. Et GTS250 gjør samme nytten i dette tilfellet.

Du kan jo google litt rundt å se hva folk med AMD basert GPU'er bruker som physx kort.

Så lenge du får tak i et kort som er nyere enn 9800 GTX, så skal det være det samme hva kort du bruker mener jeg på.

-skribeleif

Endret av mar85
Skrevet

Må bare sies at antall spill som bruker PhysX er SVÆRT få, du kan faktisk telle de på en hånd.

Lista over spill som bruker PhysX er stor, men 90% kjører disse i software og bruker da ALDRI GPUen din.

Spiller du kun PhysX spill som Mafia 2 og Metro 2033 (Nyeste på grena og av de få) så er det greit, men andre spill vil du kun kaste bort strøm på å holde kort nr 2 våken og i live.

  • Liker 1
Skrevet

Må bare sies at antall spill som bruker PhysX er SVÆRT få, du kan faktisk telle de på en hånd.Lista over spill som bruker PhysX er stor, men 90% kjører disse i software og bruker da ALDRI GPUen din.Spiller du kun PhysX spill som Mafia 2 og Metro 2033 (Nyeste på grena og av de få) så er det greit, men andre spill vil du kun kaste bort strøm på å holde kort nr 2 våken og i live.

 

Joda, er ganske enig i hva du sier. Physics software vil være f.eks Havok e.l? Hvis de nye nVidia kortene bruker mindre strøm og kommer før jul, så kjøper jeg bare ett midrange kort av de så venter på ett high-end AMD kort.

 

Det går, men det er ikke verdt det.Realismen til PhysX forsvinner litt når man kan gå uhindret gjennom betongblokker, da foretrekker jeg at betongen bare forsvinner

 

Inne på noe der... Men uten physx eller annet fysikk software så blir det litt rart i mine øyne. Er ikke noe morsomt når ting bare "smelter" vekk når det blir ødelagt.

 

 

Det kommer vel flere spill som støtter PhysX etterhvert... Og jeg har ikke mye imot å plugge ut kortet hvis jeg ikke har noen spill som bruker PhysX, siden jeg kan jo bare sette det inn igjen når jeg får ett spill jeg kommer til å spille mye.

 

Men jeg takker for svar og håper å høre flere meninger. ^^

Skrevet (endret)

Inne på noe der... Men uten physx eller annet fysikk software så blir det litt rart i mine øyne. Er ikke noe morsomt når ting bare "smelter" vekk når det blir ødelagt.

 

 

Det kommer vel flere spill som støtter PhysX etterhvert... Og jeg har ikke mye imot å plugge ut kortet hvis jeg ikke har noen spill som bruker PhysX, siden jeg kan jo bare sette det inn igjen når jeg får ett spill jeg kommer til å spille mye.

 

Men jeg takker for svar og håper å høre flere meninger. ^^

 

Tja, det finnes faktisk flere måter å gjøre fysiske kalkulasjoner i spill, problemet er som regel at det krever en god del programmering for å få til dette og de fleste spillutviklerne ønsker heller å fokusere på ting som gir direkte utslag øyeblikkelig.

 

Sånn sett så har jeg sett flere varianter av Physx , Half Life 2 har jo et system der man faktisk ikke vil oppleve at objektene man inter agerer med vil forsvinne men faktisk kunne brukes for å løse problemer.

I dag med langt mer prosseseringskraft med flerkjernede Cpu'er så behøver man rett og slett ikke et dedikert skjermkort (eller ageia) for å ta av seg disse kalkulasjonene.

 

Problemet ligger som sagt i utviklerne og valget man tar i teknologien man velger å satse på , personlig hadde jeg hoppet glatt over proprietær fysikk og heller satset på en som kan benyttes på alle skjermkort og systemer på en enkel måte.

Endret av Malvado
Skrevet (endret)

Joda, er ganske enig i hva du sier. Physics software vil være f.eks Havok e.l? Hvis de nye nVidia kortene bruker mindre strøm og kommer før jul, så kjøper jeg bare ett midrange kort av de så venter på ett high-end AMD kort.

 

*snip*

 

Det kommer vel flere spill som støtter PhysX etterhvert... Og jeg har ikke mye imot å plugge ut kortet hvis jeg ikke har noen spill som bruker PhysX, siden jeg kan jo bare sette det inn igjen når jeg får ett spill jeg kommer til å spille mye.

Du skal se langt etter nye Nvidia-kort før jul. 600-serien blir en krympning av 500-serien til hva 500-serien var ment å bli: effektiv og kraftig. Disse kortene er ryktet å komme på nyåret, mens de virkelig neste generasjons kort fra NV skal komme til sommerstid. Hvorfor i det hele tatt bry seg om noe som blir brukt en eller to ganger i året?

 

Det kommer færre og færre spill som støtter PhysX, den er utklasset av Havok og OpenCL på så mange områder at utviklere ikke gidder å legge det inn med mindre Nvidia spesifikt betaler dem for å gjøre dette. PhysX baserer seg på CUDA, så Nvidia har monopol på PhysX. Kildekoden er også lukket, så utvikling, forbedring og nyskapning med PhysX er umulig. Det er et gitt antall funksjoner i PhysX som man ikke kan gjøre noe med.

 

Dedikert PhysX-kort er noe man kan vurdere etter at man har kjøpt 4x 580, EVGA SR-2 hovedkort med medfølgende X5690, 24GB-2000MHz-CL7-RAM, vannkjøling og 2 TB med SSD-lagringsplass. Så lite verdt er et dedikert PhysX-kort.

 

Batman: AA kan man tweake så PhysX kan kjøre på CPU, og i andre spill er ikke PhysX interessant engang. Vi får se med Arkham City, men jeg tror man fint kan tweake PhysX til å kjøre på CPU der også.

 

EDIT:

Med utklassing mener jeg at Havok er fullstendig åpent, flertrådet, og krever ingen proprietære løsninger. I tillegg til at Havok faktisk kan si noe for gameplayet. Det er en grunn til at PhysX skaper ting som ikke var i spillet fra før av som man ikke kan gjøre annet enn å knuse eller ødelegge.

Endret av arni90
Skrevet (endret)

Det kommer færre og færre spill som støtter PhysX, den er utklasset av Havok og OpenCL på så mange områder at utviklere ikke gidder å legge det inn med mindre Nvidia spesifikt betaler dem for å gjøre dette.

 

Liten digresjon : Akkurat på hvilke områder er det snakk om utklassing? Hadde vært kjekt med noen linker så jeg kan lese litt mer om dette da jeg må innrømme at jeg ikke har fått med meg den delen.

Endret av Malvado
Skrevet

Meeeh... Da tror jeg nesten jeg dropper nVidia all together, med mindre shader clock har VELDIG masse å si... Noe jeg tviler ekstremt på.

Hva mener du?

Nvidias kort bruker få, komplekse shadere som kan utføre flere komplekse operasjoner, disse klokkes høyt for å få mest mulig ut av dem.

AMDs kort bruker mange, enklere shadere der 25% av dem kan utføre mer komplekse operasjoner, disse klokkes lavere for å spare strøm og fordi man ikke trenger mer shadingkraft. I rå regnekraft er dette bedre, men mer komplekse operasjoner kan ta lengre tid siden shaderprosessorene ikke takler enkelte operasjoner like raskt.

 

For å eksemplifisere:

4+5 går like fort på både Nvidia-kort og AMD-kort:

Begge legger sammen tallene enkelt og greit.

 

4*5 går langt fortere på Nvidia-kort enn AMD-kort:

Nvidia-kortene kan utføre multiplikasjon som en egen operasjon.

AMD-kortene må legge sammen 5 + 5 + 5 + 5 i løpet av fire operasjoner, men har til gjengjeld fire ganger så mange prosessorer som kan gjøre dette samtidig.

 

Dette er en grov "forenkling" av forskjellene, men det hjelper å illustrere forskjellene. Grafikk er veldig enkelt å parallellisere, så dette har ingenting å si i praksis for spill, men det kan ha noe å si i andre oppgaver.

Skrevet

Det kommer ikke til å skje mye annet enn spill og eventuelle lekser så tror ikke det har så veldig mye å si, kortene i samme prisklasse gir jo bortimot samme ytelse i spill +-5% eller så.

 

PC-en jeg da bestiller kommer met ett 6870 for så å oppdatere til ett higher-end utover våren. ^^

Skrevet

ATi kortene har en annen fordel og det er lavere strømforbruk, da spesielt på tomgang.

Min maskin går 24/7 så der kan jeg spare mye over tid ved en lav tomgangsspenning som holder tempen oppe.

Med ett Nvidia kort ville denne steget, og det er uønskelig om du er Midt Norge :D

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...