Gå til innhold

Test: Nvidia Gefore GTX 480


Anbefalte innlegg

Videoannonse
Annonse

Vel ATI klarer ikke PhysX om det er en slik effekt du mener.... det er en drømm i Just Cause 2. Vannet blir finere enn det i gamle Crysis spillet. Men Hvis du har ett kort fra Nvidia i tillegg kan du ha PhysX. Tar seg fint ut på en 22-24 tommer.

Feil, ATI klarer PhysX helt fint, men ikke med offisielle drivere og derfor er det fåtallet som gidder å få det til å virke.

 

Jeg vet ikke om du vet hva PhysX er, men det er bare én av flere måter å utføre fysikk på via skjermkortet. ATi og Intel har sine fysikk alternativer ergo er ikke PhysX nødvendigvis noe fordel for spilltitler, men heller en begrensende faktor for spill generelt, hvor man låser store deler av opplevelsen til skjermkortleverandørens fysikk implementasjoner.

 

Nå som OpenCL blir mer vanlig er mitt håp at vi får se mer generelle fysikk implementasjoner i spill som virker på tvers av skjermkort.

 

PhysX er i praksis en "lockout" og det liker ikke vi oppegående forbrukere.

Endret av Theo343
Lenke til kommentar

 

For de som er nysgjerrig på GPGPU og skal på TG, så dere velkommen på foredraget jeg skal holde der om blant annet GPGPU og asymmetriske multikjerneprosessorer.

Oj, kan du sørge for at det også går ut via webcast? Slik at også vi eldgamle "skap-tg'ere" kan se på?

 

Min interesse for GPGPU har bakgrunn i "Folding@Home" laget til hardware.no (se signatur).

 

Martin:

Geometri relaterte oppgaver som eks. fysikk løses ekstremt mye raskere av GPU enn CPU. I tillegg er det et stort forsinkende ledd at disse må innom CPU først. Ergo er det bare fordeler med å la skjermkortet ta seg av mest mulig geometri.

 

Det er måten man implementerer det på som jeg synes er uhensiktsmessig.

Endret av Theo343
Lenke til kommentar
Raptor' date='29. mars 2010 - 14:48' timestamp='1269870481' post='15432063']
Delve a little deeper, handily not mentioned in any briefing, and NVIDIA is limiting the double-precision speed of the desktop GF100 part to one-eighth of single-precision throughput, rather than keep it at half-speed, as per the Radeon HD 5000-series. We'll have to wait for the Tesla parts before that's restored to Radeon-matching levels.
Om dette stemmer så kan det være en liten bremsekloss. Det er nok en del spill som bruker double (ivertfall delvis). link

Ingen spill bruker double prescition (64-bit) mener du vel?

Ingen av AMD sine low- og mid-end kort har støtte for double prescition, kun RV870 brikken...

De fleste vet heldigvis bedre, men en del spill bruker det litt. (noe som strengt tatt burde være unødvendig)

Personlig så bruker jeg det ikke.

 

Raptor' date='29. mars 2010 - 14:48' timestamp='1269870481' post='15432063']

Ingen spill bruker double prescition (64-bit) mener du vel?

Ingen av AMD sine low- og mid-end kort har støtte for double prescition, kun RV870 brikken...

Men de har vel samme støtte i maskinvaren? Og siden OpenGL 4 krever double precision så ligger det nesten i kortene at dette vil bli aktivert ganske snart.

OpenGL 4 krever det ja, men som vanlig vil nok AMD/ATI lage en software work-around for det, og den blir muligens bedre enn 1/8 av ytelsen.
Lenke til kommentar
Raptor' date='29. mars 2010 - 12:42' timestamp='1269862975' post='15431471']

For de som er nysgjerrig på GPGPU og skal på TG, så dere velkommen på foredraget jeg skal holde der om blant annet GPGPU og asymmetriske multikjerneprosessorer.

 

Kjempeflott, gleder meg! Har du noen demoer som kan brukes på Ati Stream 2.0/nVidia CUDA HW som kan gjøres tilgjengelig ?

Lenke til kommentar
Gjest Slettet+513

Vel ATI klarer ikke PhysX om det er en slik effekt du mener.... det er en drømm i Just Cause 2. Vannet blir finere enn det i gamle Crysis spillet. Men Hvis du har ett kort fra Nvidia i tillegg kan du ha PhysX. Tar seg fint ut på en 22-24 tommer.

Feil, ATI klarer PhysX helt fint, men ikke med offisielle drivere og derfor er det fåtallet som gidder å få det til å virke.

 

Jeg vet ikke om du vet hva PhysX er, men det er bare én av flere måter å utføre fysikk på via skjermkortet. ATi og Intel har sine fysikk alternativer ergo er ikke PhysX nødvendigvis noe fordel for spilltitler, men heller en begrensende faktor for spill generelt, hvor man låser store deler av opplevelsen til skjermkortleverandørens fysikk implementasjoner.

 

Nå som OpenCL blir mer vanlig er mitt håp at vi får se mer generelle fysikk implementasjoner i spill som virker på tvers av skjermkort.

 

PhysX er i praksis en "lockout" og det liker ikke vi oppegående forbrukere.

 

Vel etter det jeg vet så er ikke ATI kort bygget for å klare PhysX (CUDA) prossesering. Agaia teamet jobber jo sammen med Nvidia folkene på kortene. og nyeste generasjon bruker en helt ny arkitektur.

Det er en liten forkjell på CUDA og ATI sine stream greier.

 

Når jeg bruker PhysX i spill tar det maks 3 ekstra fps det kaller jeg ikke dårlig. For jeg får bare 3 fps mer om jeg skrur det av.

 

Når det gjelder de driverne er de så dårlige at det det må vøre en spøk at de nevnes.

Endret av Slettet+513
Lenke til kommentar
Ærlig talt Simen og GDIraptor, kan dere over hode tenke dere å jobbe med tankeintesniv virksomhet ved samme skrivebord som en rigg som inneholder gtx480, eller radeon 5970, for den saks skyld selv om den tross alt er en god del bedre på støy.

Nei. Jeg kunne i høyden hatt en PC med Radeon 5750 på mitt kontor siden den visstnok idler på 16 Watt og er rimelig stille ved idle. Trolig mindre støyende enn det forholdsvis stillegående ventilasjonsanlegget på kontoret. (De største støyplagene på kontoret er radioen til en på nabokontoret, spotifyen til en annen og en tredje som har rare kontakter som prøver å ringe og ikke skjønner at når han ikke har svart innen 10 sekunder så er han ikke på kontoret. Telefonen kan ringe i 10 minutter i strekk. Det er like før jeg og flere i nabokontorene knuser den telefonen.)

 

Nok avsporing. Det at jeg ikke kunne tenkt meg GTX 480 eller HD 5970 betyr ikke at GTX 480 er poengløst for alle og enn hver. Jeg skjønner godt at andre både kan utnytte ytelsen godt (GPGPU, Dx11 tesselering etc) og kan godta både pris, varme og støy for å få den ytelsen i sine applikasjoner.

Lenke til kommentar

Jeg begynte og tenke over en ting nå. GTX480 kommer opp i 92C ved spillene i dag. Tenk da når GPU'en må brukes enda mer under spill som krever enda mer etterhvert. Tror hele dritten kommer til og eksplodere =/

Ikke helt sånn det fungerer, skjermkortet vil jobbe på fullt selv med de litt eldre spillene for å presse ut mest mulig FPS.

Lenke til kommentar

92°C er perfekt temperatur for kaffebrygging. Lag en vannkjølingssløyfe uten radiator, men med saktegående pumpe, kaffefilter, kaffe og kanne så får du med kaffetrakter på kjøpet. :p Listen over ekstrafunksjoner begynner å bli lang for de som er kreative nok til å utnytte varmen. :)

Lenke til kommentar

Venter enda i spenning på at noen steiker egg eller pannekaker på den grillformede toppen til GTX 480 :p. Må si jeg lurer litt på hvor mye ventilasjon man må ha i kabinettet for å unngå at GTX 480 vil måtte skru ned hastigheten (noe den gjør ved 105 C ifølge Anandtech). Selv på åpne benker har jo anmeldere vært nært 100 C, så det virker nesten utrolig at dette 250 W+ monsteret kan klare seg i et vanlig kabinett når sola står inn vinduet på sommeren.

Lenke til kommentar

92°C er perfekt temperatur for kaffebrygging. Lag en vannkjølingssløyfe uten radiator, men med saktegående pumpe, kaffefilter, kaffe og kanne så får du med kaffetrakter på kjøpet. :p Listen over ekstrafunksjoner begynner å bli lang for de som er kreative nok til å utnytte varmen. :)

 

Hvis man skal spille en hel kveld blir det menger med kaffe da....

Lenke til kommentar

Jeg begynte og tenke over en ting nå. GTX480 kommer opp i 92C ved spillene i dag. Tenk da når GPU'en må brukes enda mer under spill som krever enda mer etterhvert. Tror hele dritten kommer til og eksplodere =/

Ikke helt sånn det fungerer, skjermkortet vil jobbe på fullt selv med de litt eldre spillene for å presse ut mest mulig FPS.

 

Kjernen aktiverer ikke enkelte deler av kortet på de eldre spillene. Når spillene begynner og spørre etter GPGPU og andre finurlige ting vil den måtte aktivere og bruke mer...

Lenke til kommentar

Jeg begynte og tenke over en ting nå. GTX480 kommer opp i 92C ved spillene i dag. Tenk da når GPU'en må brukes enda mer under spill som krever enda mer etterhvert. Tror hele dritten kommer til og eksplodere =/

Ikke helt sånn det fungerer, skjermkortet vil jobbe på fullt selv med de litt eldre spillene for å presse ut mest mulig FPS.

 

Kjernen aktiverer ikke enkelte deler av kortet på de eldre spillene. Når spillene begynner og spørre etter GPGPU og andre finurlige ting vil den måtte aktivere og bruke mer...

Mesteparten av GPUen vil være i bruk, men vil ikke utnyttes optimalt.
Lenke til kommentar

Hvis det blir mer GPGPU action i spill så er ikke dette noe negativt ift. ATI sine produkter da de fult ut støtter OpenCL og har Streams 2.0 bla.

AMD har sagt til oss at Brook+/CAL (regner med at det er det du mener) er "dødt". De kommer til å satse på OpenCL og DirectCompute. Dette løser dessverre ikke problemene, da du allikevel må skrive bortimot dedikert kode for forskjellige arkitekturer.

 

Oj, kan du sørge for at det også går ut via webcast? Slik at også vi eldgamle "skap-tg'ere" kan se på?

Vet ikke om TG stiller med det, hvis de har option for det så kan jeg sikkert spørre de om det. Det er fredag ettermiddag jeg er satt opp, men jeg er vel på UiO sin stand både på onsdag og torsdag.

 

Men de har vel samme støtte i maskinvaren? Og siden OpenGL 4 krever double precision så ligger det nesten i kortene at dette vil bli aktivert ganske snart.

OpenGL 4 krever det ja, men som vanlig vil nok AMD/ATI lage en software work-around for det, og den blir muligens bedre enn 1/8 av ytelsen.

Ja, både for AMD og Nvidia kan dette kontrolleres i drivere. Hardware er på plass, og brikkene er de samme.

 

Kjempeflott, gleder meg! Har du noen demoer som kan brukes på Ati Stream 2.0/nVidia CUDA HW som kan gjøres tilgjengelig ?

Stream holder jeg meg langt unna, men CUDA og OpenCL-kode kan jeg sikkert grave opp et par enkle eksempler på. Jeg kommer til å bruke en Motion JPEG encoder som eksempel, siden det er en video-codec som er "embarrassingly parallel" og enkel sammenlignet med for eksempel H.264.

 

Vel etter det jeg vet så er ikke ATI kort bygget for å klare PhysX (CUDA) prossesering. Agaia teamet jobber jo sammen med Nvidia folkene på kortene. og nyeste generasjon bruker en helt ny arkitektur.

Det er en liten forkjell på CUDA og ATI sine stream greier.

Det er vel AGEIA du mener? De finnes ikke lenger, de er kjøpt opp av Nvidia. Med en gang AGEIA ble kjøpt opp ble demmes enge PPU (Physics Processing Units) lagt døde, og rammeverket demmes ble skrevet om til å kunne bruke CUDA isteden.

 

Det er en liten forkjell på CUDA og ATI sine stream greier.

Det er stor forskjell på "Stream" (Brook+ / CAL) og CUDA.

OpenCL 1.0 er derimot ganske lik CUDA 2.0

 

Ærlig talt Simen og GDIraptor, kan dere over hode tenke dere å jobbe med tankeintesniv virksomhet ved samme skrivebord som en rigg som inneholder gtx480, eller radeon 5970, for den saks skyld selv om den tross alt er en god del bedre på støy.

Er en grunn til at jeg bruker SSH inn til mange av maskinene jeg jobber på ja... :) Putter vel inn ett mid-range GF104 kort når det blir tilgjenglig (har ett GeForce GT 240 kort per dags dato) da det er greit å ha et lokalt kort for debuging og enkel testing.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...