Gå til innhold

Asus lanserer PhysX P1


Anbefalte innlegg

Må vel heller ikke glemme at prisene vi ser nå gjelder introduksjonene av et nytt produkt, uten konkurenter. Er vel ikke urealistisk at de er mer enn halvert før havoc har ferdigutviklet sin teknologi.

 

Og når folk er mer enn villige til å betale 400,- for et spill, så er jo en tusen lapp ikke så mye...

Endret av Sigurd2
Lenke til kommentar
Videoannonse
Annonse

PhysX er ett intressant kort, og kjenner jeg meg selv rett så kommer jeg til å kjøpe meg ett..

 

Men, Simen1, nå må du huske på at Aegias PhysX-kort nettop har kommet på markedet og hva er det som er normalt når noe flunkende nytt og "revolusjonerende" kort dukker opp? joda, prisene skrus skyhøyt opp i været ved lansering og så roer prisene seg på mer akseptable nivå.

 

etter hva jeg har fått med meg fra før, av artikler av kortet før det kom på markedet så var ca 1000-1500kr en pris man så for seg at det kom til å ligge på. nå med tanke på at kortet nettopp har kommet på markedet og det prises rundt 2000kr så er det ikke noe i veien for at pris-normalen faktisk kommet til å dette ned på rundt 1500kr iløpet av noen måneder.

 

 

jeg tror at PhysX kortet kommer til å få ett godt fotfeste på markedet, og iløpet av noen år så vil en eller annen slags form for dedikerte ppu prosessorer være i allemanseie.

noe av den grunnen tror jeg kommer av at mens utvikler-selskap må betale opp til flere hundre-tusen dollar for å bruke Havok API i sine spill/applikasjoner så kan dem nå bare kontakte Aegia og få tilsendt kort og SDK til Aegia's PhysX API helt gratis.

en annen ting som kommer til å hjelpe Aegia i å få fotfeste er att flere store ferdigpc-produsenter inkludert Dell allerede leverer ferdige maskiner med Aegis PhysX kort ferdig installert.

 

og anngående GRAW.. det spillet er dårlig kodet. spillet er programert til å bruke både Havok og PhysX, noe som sikkert er fint, hver for seg. men problemet ligger i at når der er ett ppu kort tilstede så blir fysikken først behandlet i Havok før de blir sendt til PhysX kortet som regner ut dataene og sender de tilbake til Havok. det sier seg selv at ting går ikke som forventet når dataene blir sendt rundt slik.. :rolleyes:

Lenke til kommentar
PhysX er ett intressant kort, og kjenner jeg meg selv rett så kommer jeg til å kjøpe meg ett..

6066570[/snapback]

 

Jeg kommer nok også til å skaffe meg ett. Og skulle det bare bli en liten flopp, så får jeg ramme det inn og henge det på veggen som en kuriositet :D

Lenke til kommentar

jo forresten..

 

det er vel ikke bare fysikkutregninger til spill dette kortet kan brukes til, eller?

 

noen her som husker snakket om å la grafikkprosessorer jobbe med f.eks Seti@Home, Folding@Home og likn prosjekter mens kortene stod ubrukte?

etter hva jeg husket så passet gpuer godt til dette formålet grunnet deres paralelle prosesserings-design og rå datakraft, men vil ikke en ppu også kunne jobbe med slike prosjekter også?

Lenke til kommentar
"PS. Husk også at PhysX er laget på 130nm og er bare en middels stor brikke på 125 mill transistorer og 182 mm^2 og 25W. Hvis ATI og Nvidia velger å putte en nøyaktig kopi inn på sine GPU'er på 80nm så er det bare snakk om så lite som 68mm^2 ekstra og ~10W ekstra. Men en slik kopiering blir selvfølgelig ikke aktuellt av mange grunner. Både lisensmessige og praktiske. De praktiske grunnene gjør at det er enklere å benytte og kanskje utvide den eksisterende arkitekturen for å få den til å gjøre det samme med færre transistorer, færre watt og færre kvadratmillimetere."

 

Ja, men nå er du nesten like idealistisk som meg.

 

dette krever noe ekstra.

 

dette krever gjennomgående redesigning, og nyproduksjon.

dette koster penger.

havoc er utrolig praktisk, fordi det er software basert, ergo billig. og ati\nvidia kan putten et ekstra klistremerke på eskene sine.

ergo i mine øyne sub-ideelt.

6066496[/snapback]

ATi og Nvidia pumper ut nye design med rundt 12 måneders sykluser (pluss en 6-måneders-syklus for oppdateringer av inneværende design). Men jeg er uenig i at havoc-løsningen er en programvarebasert løsning. Det er jo fortsatt en brikke som gjør jobben i hardware. Det kreves selvfølgelig en driver, akkurat som PhysX krever en driver, men det betyr jo ikke at jobben gjøres i programvaren (av prosessoren).

 

Jeg aner ikke om de har noe klistremerke for dette, men det er uansett totalt irrelevant.

 

det er vel ikke bare fysikkutregninger til spill dette kortet kan brukes til, eller?

 

noen her som husker snakket om å la grafikkprosessorer jobbe med f.eks Seti@Home, Folding@Home og likn prosjekter mens kortene stod ubrukte?

etter hva jeg husket så passet gpuer godt til dette formålet grunnet deres paralelle prosesserings-design og rå datakraft, men vil ikke en ppu også kunne jobbe med slike prosjekter også?

6066645[/snapback]

Det stemmer! Men da må i så fall ..@Home optimaliseres for det formålet. Det har også vært snakk om å kjøre en del vitenskapelig programvare på GPU. :)

Lenke til kommentar
"PS. Husk også at PhysX er laget på 130nm og er bare en middels stor brikke på 125 mill transistorer og 182 mm^2 og 25W. Hvis ATI og Nvidia velger å putte en nøyaktig kopi inn på sine GPU'er på 80nm så er det bare snakk om så lite som 68mm^2 ekstra og ~10W ekstra. Men en slik kopiering blir selvfølgelig ikke aktuellt av mange grunner. Både lisensmessige og praktiske. De praktiske grunnene gjør at det er enklere å benytte og kanskje utvide den eksisterende arkitekturen for å få den til å gjøre det samme med færre transistorer, færre watt og færre kvadratmillimetere."

 

Ja, men nå er du nesten like idealistisk som meg.

 

dette krever noe ekstra.

 

dette krever gjennomgående redesigning, og nyproduksjon.

dette koster penger.

havoc er utrolig praktisk, fordi det er software basert, ergo billig. og ati\nvidia kan putten et ekstra klistremerke på eskene sine.

ergo i mine øyne sub-ideelt.

6066496[/snapback]

ATi og Nvidia pumper ut nye design med rundt 12 måneders sykluser (pluss en 6-måneders-syklus for oppdateringer av inneværende design). Men jeg er uenig i at havoc-løsningen er en programvarebasert løsning. Det er jo fortsatt en brikke som gjør jobben i hardware. Det kreves selvfølgelig en driver, akkurat som PhysX krever en driver, men det betyr jo ikke at jobben gjøres i programvaren (av prosessoren).

 

Jeg aner ikke om de har noe klistremerke for dette, men det er uansett totalt irrelevant.

 

det er vel ikke bare fysikkutregninger til spill dette kortet kan brukes til, eller?

 

noen her som husker snakket om å la grafikkprosessorer jobbe med f.eks Seti@Home, Folding@Home og likn prosjekter mens kortene stod ubrukte?

etter hva jeg husket så passet gpuer godt til dette formålet grunnet deres paralelle prosesserings-design og rå datakraft, men vil ikke en ppu også kunne jobbe med slike prosjekter også?

6066645[/snapback]

Det stemmer! Men da må i så fall ..@Home optimaliseres for det formålet. Det har også vært snakk om å kjøre en del vitenskapelig programvare på GPU. :)

6066956[/snapback]

 

Det han mente med Havoc og programvare basert, er vel det faktum at HL2 motoren bruker havoc tech. Men på samme måte så har AGEIA også en software del. menmen leggetid her.

Lenke til kommentar
Hvordan kan DX10 kunne forbedre ytelsen der fysikk oppgavene fordeles mellom GPU/CPU? Trodde DX kun "mappet" koden til hardwaren?!

6063891[/snapback]

 

PhysX er jo ganske sær og ny hardware da, men etter hva jeg har forstått må spillutviklere skrive kode spesielt for PhysX.

Ideèn med DriectX var at all input, lyd, bilde, osv skulle gjøres abstrakt på programvarenivå slik at spillutviklere kun trengte forholde seg til DirectX - og ikke alle de forskjellige fysiske løsningene, slik som PhysX.

Dette var et vanlig "problem" tidlig i 3D-aksellerator-tiden da kampen sto mellom 3DFX Glide, OpenGL og PowerVR. Skriver man for DirectX 9.0c i dag er det dømt til å funke på 99% av alle løsningene.

 

DX10 vil ikke kunne bedre ytelsen på mystisk vis, men dersom DX10 får en egen DirectPhys vil jeg tro det blir langt enklere for spillutviklere å ta i bruk f.eks PhysX, samtidig det kanskje inspirer andre konkurenter med lure løsninger.

Også å putte dette inn i en allerede ganske så standard API ville virke mest naturlig.

Lenke til kommentar

Personlig kommer jeg til å kjøpe meg et PhysX-kort så snart jeg ser nytten av å ha et i PCen min, dvs den dagen det har kommet spilltitler jeg virkelig har lyst på og som virkelig drar nytte av et slikt kort.

 

...forutsatt at jeg ikke av en eller annen grunn blir mektig imponert over Havoc sin løsning eller noe sånt innen den tid, vel å merke. Men personlig synes jeg løsningen med å ha et eget, uavhengig fysikk-kort høres ut som en bedre idé.

Endret av Juke
Lenke til kommentar

Har jeg misforstått her om jeg tror at Havoc løsningen vil fungere i samtlige spilltitler, mens Ageias løsning krever spesiell form? Òg om Havocs løsning er godt programmert som Ageias..? Eller er det slik at ingen egentlig vet akkurat denne biten kanskje..

 

For isåfall er det jo litt teit å uttale seg på generelt grunnlag om Ageia vs Havoc er dumme smarte løsninger da..

Endret av daniel_984
Lenke til kommentar
Har jewg misforstått her om jeg tror at Havoc løsningen vil gungere i samtlige spilltitler, mens Ageias løsning krever spesiell form? Òg om Havocs løsning er godt programmert som Ageias..? Eller er det slik at ingen egentlig vet akkurat denne biten kanskje..

 

For isåfall er det jo litt teit å uttale seg på generelt grunnlag om Ageia vs Havoc er dumme smarte løsninger da..

6068155[/snapback]

Havoc-løsninga vil ikke fungere av seg selv nei. Alle nye spill må spesiellt programmeres for enten PhysX eller Havoc-løsninga, eller kanskje for begge. (Det kommer litt an på API om det går an å lage en løsning som fungerer på begge metodene eller om det må lages hver sin løsning.) Noe av poenget med begge metodene er at spillet kan programmeres med langt flere objekter som samvirker. Hvis ikke spillet programmeres slik så er det liten vits i å bruke noen av løsningene.

 

Hva som er enklest å programmere for vet jeg ikke. Det kommer an på hvordan driveren til PhysX og driveren til GPU-Havoc-løsninga er laget. Dersom Microsoft lager et API til fysikk så kan det bli like enkelt/vanskelig for begge løsningene. GPU har styrken i rå teoretisk beregningskraft å ta av (men en svakhet i lav effektivitet), mens PhysX har styrken i høy effektivitet (men en svakhet i rå teoretisk beregningskraft å ta av). Hva som er mest effektivt vil vise seg når det kommer nøytrale og sammenlignbare tester av begge. Da tenker jeg ikke på kun ytelse, men også pris/ytelse-forholdet, støynivå, plasskrav og hvilke spill som støtter løsningen.

Lenke til kommentar

PPU, høres fint ut det, men hva blir det neste, egen AI enhet i maskina? Egen prosessor for alt til slutt? Hvorfor satser ikke intel/amd på noe lignende slik som PS3 har, flere hoved prosessorer man kan bruke til å regne ut akkurat hva man vil.. Må da være det som er fremtiden, i motsetning til dette her, hvor man må ha en spesiell prosessor for en spesiell oppgave?

Lenke til kommentar
PPU, høres fint ut det, men hva blir det neste, egen AI enhet i maskina? Egen prosessor for alt til slutt?  Hvorfor satser ikke intel/amd på noe lignende slik som PS3 har, flere hoved prosessorer man kan bruke til å regne ut akkurat hva man vil.. Må da være det som er fremtiden, i motsetning til dette her, hvor man må ha en spesiell prosessor for en spesiell oppgave?

6068617[/snapback]

Godt poeng!

 

Både fra et teknisk ståsted og fra et økonomisk ståsted så er det uønsket med alt for mange spesialiserte brikker. Mange brikker betyr mange kommunikasjonsbusser, mye latency mellom enhetene og dermed lav ytelse. Mange busser og mange brikker betyr også at prisen kan bli veldig høy. En buss er ikke gratis hverken i form av pris eller effekt så det er ønskelig at brikkene samles til en stor brikke så fremt brikken ikke blir alt for stor (=lav yield) eller det er andre ting som hindrer det. Intern kommunikasjon på en brikke har både veldig mye lavere latency og mulighet for mye høyere båndbredde enn om kommunikasjonen måtte gå via pinner og et hovedkort.

 

Per i dag ser jeg på det som teknisk gunstig å ha en dobbeltkjerne prosessor for generell kode (CPU) separat fra en massivt parallell prosessor (GPU/PPU). Jeg ser det også som gunstig med to minnebusser. En treg for CPU med utvidbar støtte for mye ram, og en raskt for GPU med fast mengde minne. Brikkesettet mener jeg har forbedringspotensiale ved å fjerne hele FSB'en eller HT-bussen fra desktop-systemer og ha en bred (48-kanalers?) PCIe-kontroller dirkete på CPU. (Ett mindre mellomledd uten at det gir veldig mange flere pinner). Minnebussen burde helst vært seriell men det kommer nok om noen få år. Og før jeg sporer helt av her så tror jeg det om noen få år vil være like tydelig at det å slå sammen PPU og GPU til en brikke vil være like riktig som å slå sammen en to CPU'er på hver sin sokkel til en dobbeltkjerne CPU på en sokkel. Det senker kostnader, plass, strømforbruk, støy og øker effektiviteten i kommunikasjonen mellom brikkene, som igjen fører til bedre ytelse.

Lenke til kommentar
PPU, høres fint ut det, men hva blir det neste, egen AI enhet i maskina? Egen prosessor for alt til slutt?  Hvorfor satser ikke intel/amd på noe lignende slik som PS3 har, flere hoved prosessorer man kan bruke til å regne ut akkurat hva man vil.. Må da være det som er fremtiden, i motsetning til dette her, hvor man må ha en spesiell prosessor for en spesiell oppgave?

6068617[/snapback]

 

Nå skal det faktisk være en egen PhysX brikke i PS3, noe vi sikkert får vite mer om iløpet av E3

Lenke til kommentar
:whistle: Uansett er det jo et steg fremover. Har noen sett de filmklippene bla med det flyet som styrter inn i de tønnene og greier? :dribble: Det er uansett veldig digg! Ser fram til det her selvom jeg kanskje ikke har planer om å kjøpe noe slikt ved lanseringstiden med tanke på pris. :ermm: - :roll: Ja...ville da tippe at PPU o.l. Vil bli mer vanlig integrert i andre PC komponenter etterhvert.
Lenke til kommentar
Nå skal det faktisk være en egen PhysX brikke i PS3, noe vi sikkert får vite mer om iløpet av E3

6069045[/snapback]

Og hva skal de med PhysX når de har Cell?

 

Nei, noen har misforstått. Det blir ingen fysikkbrikke i PS3, men PhysX SDK (Software Development Kit) blir tilgjengelig for utviklerne.

 

Uansett kan det føre til flere spill med PhysX-støtte for PC.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...