Gå til innhold

Ageia PhysX er offisiell


Anbefalte innlegg

Videoannonse
Annonse

Det som blir kult er når utviklerne begynner å bruke denne teknologien til ting som ikke har blitt gjort før. Det som vises fram nå og tanker som svirrer i hodene på potensielle kjøpere er jo stort sett ti ganger så mange tønner og/eller forbedring av fps fordi. Det som jeg syns blir kult er når vi får se matrialforvregning og skikkelig fysikk på væsker. :yes:

Lenke til kommentar
hm mon tro om overklokking av denne saken funker?

5803367[/snapback]

 

Minne vil sikkert bli muligheter for å klokke (i tanke på at det er GDDR3 minne). Muligens også kjerna. Men kan jo hende det blir like mye vits å klokke kjerna som å klokke kjerna i et lydkort. Men hadde det ikke vært på tide å fase ut GDDR3 minne og få inn GDDR4?

Lenke til kommentar

Fikk inntrykk av, i opphypingen foran PCI-e-sleppet, at PCI-X ville erstatte PCI på alle nyere hovedkort. Sett i den sammenhengen, ville det jo være mer naturlig å legge kortet til en PCI-X-port. Og uansett; kommer det virkelig hovedkort med så mange PCI-E-porter? Ser jo på et par nye skjermkort som har kommet den siste tiden, som tar -tre- plasser på hovedkortet. Er det da naturlig med nok plass til en PhysX-prosessor under den igjen?

Lenke til kommentar
Fikk inntrykk av, i opphypingen foran PCI-e-sleppet, at PCI-X ville erstatte PCI på alle nyere hovedkort. Sett i den sammenhengen, ville det jo være mer naturlig å legge kortet til en PCI-X-port. Og uansett; kommer det virkelig hovedkort med så mange PCI-E-porter? Ser jo på et par nye skjermkort som har kommet den siste tiden, som tar -tre- plasser på hovedkortet. Er det da naturlig med nok plass til en PhysX-prosessor under den igjen?

5803570[/snapback]

 

Som andre her har poengtert PCie og PCI-X er IKKE det samme, dine innlegg framstår som litt forvirrende når du blander. Bare til informasjon.

 

AtW

Lenke til kommentar
Enig med Chil.

Skal vi oppgrader disse nye kort like ofte som vi oppgradere gpu'en blir det bare enda dyrere of forvirende for mange andre.Det burde heller vært integrert i enten cpu'en eller gpu'en for å få ned kostnader og plass forbruk. :mad:

5803852[/snapback]

 

ATI og nVidia har teknologier, men selvfølgelig hver sin teknologiske løsning. Som desverre for oss brukere ikke går om hverandre sånn helt uten videre.

 

Det hadde vært veldig praktisk for oss om man 'bare' kunne klemt inn en PhysX kjerne i en CPU eller GPU. Nå er det imidlertid slik at Aegis har utviklet et produkt de har rettigheter til og vil tjene penger på. Det er ikke bare bare å få til en avtale som tilser at f.eks AMD kan implementere teknologien direkte i sine CPU'er. Her er det mye penger, forretningshemmeligheter, jus, teknologiske hindre osv før det blir en realitet. Markedsstyrt økonomi har sine fordeler, men også sine bakdeler..

Lenke til kommentar
Enig med Chil.

Skal vi oppgrader disse nye kort like ofte som vi oppgradere gpu'en blir det bare enda dyrere of forvirende for mange andre.Det burde heller vært integrert i enten cpu'en eller gpu'en for å få ned kostnader og plass forbruk. :mad:

5803852[/snapback]

Det er ingen som tvinger deg til å kjøpe disse kortene, i hvert fall ikke foreløpig. :) Dette er i første omgang produkter for entusiaster, men det er klart at hvis man setter sin ære i å kunne kalle seg entusiast, blir det dyrt... :p

Lenke til kommentar
nVidia og ATi er vel et stykke unna dual-core på skjermkortet, så det er jo ikke akkurat gjort i en håndvending.

5804219[/snapback]

Det er kanskje litt forenklet sagt men ATI er jo allerede oppe i 48 kjerner på et kort og nvidia er jo oppe i 24. En pixel pipeline kan på mange måter sammenlignes med en pipeline i en CPU.

 

Poenget er at en GPU er en såkalt massivt parallell special purpose prosessor, mens en CPU er en enkel eller dobbel general purpose prosessor.

 

Det er jo derfor en GPU kan ha 350 Gflops beregningskraft med bare 5-600 MHz klokkefrekvens mens en CPU bare har bortimot 10 Gflops beregningskraft til tross for klokkefrekvenser på flere GHz.

 

Huff, det er vist mange som ikke skjønner de grunnleggende og vesentlige forskjellene på hva en CPU og en GPU er. Forvirringen i både denne og andre tråder er jo total når det dukker opp nye brikker med nye bruksområder.

Endret av Simen1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...