Gå til innhold

Test: Nvidia Gefore GTX 480


Anbefalte innlegg

Vel, hvis det eneste beregningsintensive en bruker PCen til er spill er jeg enig. Hvis en derimot bruker andre beregningsintensive programmer som er massivt paralleliserbare, er det en stor fordel at det er enkelt å utvikle kode til GPUen, da det er større sannsynlighet for at den faktisk blir utviklet. Hvis en f.eks. bruker photoshop eller 3ds i en inkarnasjon osv. er det nok muligheter for stor akselerasjon.

Lenke til kommentar
Videoannonse
Annonse

Vice: Fermi kan utnyttes fullt ut her og nå. Men det er jo ikke sikker du benytter de programmene som faktisk utnytter Fermi. Poenget mitt er at du ikke må anta at alle andre følger i dine fotspor og spiller akkurat det du spiller på akkurat de oppløsningene og med akkurat samme innstillinger.

Nei det antar jeg heller ikke. Jeg bare uttalte meg på grunnlag av de testene jeg har sett, samt på uttalelser fra enkelte om at "Fermi ikke kan utnyttes helt ennå". Om folk finner sine områder hvor kortet passer dem perfekt er jo det bra. Jeg er dog i likhet med majoriteten(vil jeg tro) mest opptatt av spillytelse når jeg kjøper et slikt kort, og ren GPU-ytelse kommer kommer etter støy, varme(strømforbruk)& pris på min prioriteringsliste.

Lenke til kommentar
Jeg synes det er veldig merkelig at det eneste dere ser på er ytelse i spill (som sannsynligvis ikke utnytter arkitekturen i utgangspunktet).

 

Synes det er merklig at du synes det er merklig at de fleste synes ytelse i spill har mest og si ved kjøp av skjermkort.

 

Jobber med man med grafikk er det helt andre gpuer som gjelder, helt andre priser og trolig stort sett et helt annet forum som brukes ;)

Endret av simalarion
Lenke til kommentar
Jeg synes det er veldig merkelig at det eneste dere ser på er ytelse i spill (som sannsynligvis ikke utnytter arkitekturen i utgangspunktet).

 

Synes det er merklig at du synes det er merklig at de fleste synes ytelse i spill har mest og si ved kjøp av skjermkort.

De fleste (95%) som kjøper slike kort tenker nok på spill.

 

En liten gruppe som jeg blant annet er i tenker også på GPGPU, der er Fermi-arkitekturen meget spennene, og et kjempeskritt sammenlignet med konkurrenter og gamle GT200-kort.

 

For de som er nysgjerrig på GPGPU og skal på TG, så dere velkommen på foredraget jeg skal holde der om blant annet GPGPU og asymmetriske multikjerneprosessorer.

Lenke til kommentar
Raptor' date='29. mars 2010 - 12:42' timestamp='1269862975' post='15431471']
Jeg synes det er veldig merkelig at det eneste dere ser på er ytelse i spill (som sannsynligvis ikke utnytter arkitekturen i utgangspunktet).

 

Synes det er merklig at du synes det er merklig at de fleste synes ytelse i spill har mest og si ved kjøp av skjermkort.

De fleste (95%) som kjøper slike kort tenker nok på spill.

 

En liten gruppe som jeg blant annet er i tenker også på GPGPU, der er Fermi-arkitekturen meget spennene, og et kjempeskritt sammenlignet med konkurrenter og gamle GT200-kort.

 

For de som er nysgjerrig på GPGPU og skal på TG, så dere velkommen på foredraget jeg skal holde der om blant annet GPGPU og asymmetriske multikjerneprosessorer.

 

 

Og for oss som ikke skal på TG, tror du du har muligheten til å skrive en egen artikkel om dette?

Hadde nok blitt satt stor pris på da det ikke er alltid enkelt å få denne type erfaring som du sitter på. Ønskeliste i så fall :

 

*På hvilke punkter er cuda overlegen konkurrentene.

*Hva kan konkurrentene gjøre for å bli like atraktive som Nvidia sine løsninger.

Endret av Malvado
Lenke til kommentar
Raptor' date='29. mars 2010 - 12:42' timestamp='1269862975' post='15431471']
Jeg synes det er veldig merkelig at det eneste dere ser på er ytelse i spill (som sannsynligvis ikke utnytter arkitekturen i utgangspunktet).

 

Synes det er merklig at du synes det er merklig at de fleste synes ytelse i spill har mest og si ved kjøp av skjermkort.

De fleste (95%) som kjøper slike kort tenker nok på spill.

 

En liten gruppe som jeg blant annet er i tenker også på GPGPU, der er Fermi-arkitekturen meget spennene, og et kjempeskritt sammenlignet med konkurrenter og gamle GT200-kort.

 

For de som er nysgjerrig på GPGPU og skal på TG, så dere velkommen på foredraget jeg skal holde der om blant annet GPGPU og asymmetriske multikjerneprosessorer.

 

 

Og for oss som ikke skal på TG, tror du du har muligheten til å skrive en egen artikkel om dette?

Hadde nok blitt satt stor pris på da det ikke er alltid enkelt å få denne type erfaring som du sitter på. Ønskeliste i så fall :

 

*På hvilke punkter er cuda overlegen konkurrentene.

*Hva kan konkurrentene gjøre for å bli like atraktive som Nvidia sine løsninger.

Ja, et kan jeg sikkert. Noen av forskningsresultatene vi skal presentere på TG (i en populærvitenskaplig innpakning) har vi nettopp fått akseptert inn på en internasjonal konferanse. Kan sikkert legge ut linker her så fort den er publisert. Artiklen handler om utfordringer, problemer og tips for programmerere som skal bruke disse arkitekturene, og sammenligner blant annet GPU (Nvidia) med Cell.

 

På TG kommer jeg også til å gå litt inn på forskjellene mellom måten Nvidia og AMD sine GPUer fungerer med hensyn på GPGPU, og hvorfor ikke OpenCL bidrar til å gjøre det lettere å få programmer til å fungere optimalt på både AMD og Nvidia uten masse ekstra jobb for personen som programmerer.

 

Info om UiO sitt program til de av dere som skal på TG:

http://tg.ifi.uio.no/2010/

Endret av [GDI]Raptor
Lenke til kommentar

Begge kortene har tesselering i bøtter og span, men forskjellen er selvsagt at Nvidia yter bedre i apps / spill som er optimalisert for Nvidia antar jeg (om det er pga en hardware forskjell er jeg veldig usikker på).

 

Faktum 1: Nvidia's nye kort har mye kraftigere tessellering enn dagens ati kort.

Faktum 2: Nvidia's GPGPU ytelse er i en helt annen klasse enn ATI's.

Faktum 3: Dirt 2, som ATI har brukt som skrytespill, bruker begge teknologier. Og er en av de spillene der 480'en konkurrerer direkte mot 5970 i ytelse.

 

Selvfølgelig kan det være tilfeldigheter, men det virker nesten som om nvidia's nye hardware har en fordel på et par ting.

Lenke til kommentar

 

 

Faktum 1: Nvidia's nye kort har mye kraftigere tessellering enn dagens ati kort.

Faktum 2: Nvidia's GPGPU ytelse er i en helt annen klasse enn ATI's.

Faktum 3: Dirt 2, som ATI har brukt som skrytespill, bruker begge teknologier. Og er en av de spillene der 480'en konkurrerer direkte mot 5970 i ytelse.

 

Selvfølgelig kan det være tilfeldigheter, men det virker nesten som om nvidia's nye hardware har en fordel på et par ting.

 

1 : Tesselering er dog ikke trumfkortet og er helt avhengig av hvordan det kommer til å bli brukt av software utviklerne , noe Anandtech pent påpekte i overnevnte link :

"But with that said, NVIDIA having a more powerful tessellator doesn't mean much on its own. Tessellation is wholly dependent on game developers to make use of it and to empower users to adjust the tessellation levels. Currently every DX11 game using tessellation uses a fixed amount of it, so NVIDIA's extra tessellation abilities are going unused. This doesn't mean that tessellation will always be used like this, but it means things have to change, and counting on change is a risky thing

 

Men utifra det jeg har sett hittil så tyder det enstemning på at Nvidia har langt kraftigere tesselering enn Ati, om dette endrer seg (altså pga software) gjenstår å se, men så langt er nok Nvidia best der.

 

Men er ytelsen og ikke minst tilgjengeligheten bra nok til å konkurrere mot 5870? Personlig så tror jeg ikke det, men det blir utvilsomt et kort som kommer til å selge i bøtter og spann men bare ikke til spillerne men proff markedet...

Endret av Malvado
Lenke til kommentar

Begge kortene har tesselering i bøtter og span, men forskjellen er selvsagt at Nvidia yter bedre i apps / spill som er optimalisert for Nvidia antar jeg (om det er pga en hardware forskjell er jeg veldig usikker på).

 

Faktum 1: Nvidia's nye kort har mye kraftigere tessellering enn dagens ati kort.

Faktum 2: Nvidia's GPGPU ytelse er i en helt annen klasse enn ATI's.

Faktum 3: Dirt 2, som ATI har brukt som skrytespill, bruker begge teknologier. Og er en av de spillene der 480'en konkurrerer direkte mot 5970 i ytelse.

 

Selvfølgelig kan det være tilfeldigheter, men det virker nesten som om nvidia's nye hardware har en fordel på et par ting.

 

Du glemte noen faktumer, men jeg skal fylle de ut for deg, slik at du skjønner hva mange ikke liker ved Fermi:

 

Faktum 4: Fermi er en nesten dobbelt så stor brikke som suger opp mot det dobbelte av den strømmen konkurrenten trenger. Til tross for dette, klarer den ikke å yte mer enn 5-20% bedre mot den 6 måneder gamle konkurrenten

Som et resultat så høres brikken ganske godt, og i SLI er verre. Dette har ikke noe med subjektiv oppfattelse å gjøre, den er mer bråkete, om det plager deg eller ikke, får være den subjektive biten.

 

Faktum 5: Fermi har på gamingsiden av familien (GTX) fått kuttet flere ting som ville gjort den til en skikkelig beist på GPGPU, hvorfor? Fordi Nvidia ønsker å selge de samme kortene som Quadro og Tesla til opp mot 10 ganger høyere pris.

Med andre ord, vi snakkeer ikke om samme Fermi når vi setter spill opp mot forskning/teknologisk utnyttelse.

 

Faktum 6: Fermi blir meget sannsynlig mye bedre i sin andre eller kanskje tredje revisjon, altså som Gtx5xx og 6xx

 

 

Jeg tror at de som ønsket seg en GPGPU grafikkort er i den syvende himmel, og det unner jeg dem, men jeg og mange med som normale brukere er skuffet, veldig skuffet.

 

Edit: siste avsnittet manglet 2 ord.

Endret av Madcatatlas
Lenke til kommentar

Begge kortene har tesselering i bøtter og span, men forskjellen er selvsagt at Nvidia yter bedre i apps / spill som er optimalisert for Nvidia antar jeg (om det er pga en hardware forskjell er jeg veldig usikker på).

 

Faktum 1: Nvidia's nye kort har mye kraftigere tessellering enn dagens ati kort.

Faktum 2: Nvidia's GPGPU ytelse er i en helt annen klasse enn ATI's.

Faktum 3: Dirt 2, som ATI har brukt som skrytespill, bruker begge teknologier. Og er en av de spillene der 480'en konkurrerer direkte mot 5970 i ytelse.

 

Selvfølgelig kan det være tilfeldigheter, men det virker nesten som om nvidia's nye hardware har en fordel på et par ting.

 

Du glemte noen faktumer, men jeg skal fylle de ut for deg, slik at du skjønner hva mange ikke liker ved Fermi:

 

Faktum 4: Fermi er en nesten dobbelt så stor brikke som suger opp mot det dobbelte av den strømmen konkurrenten trenger. Til tross for dette, klarer den ikke å yte mer enn 5-20% bedre mot den 6 måneder gamle konkurrenten

Som et resultat så høres brikken ganske godt, og i SLI er verre. Dette har ikke noe med subjektiv oppfattelse å gjøre, den er mer bråkete, om det plager deg eller ikke, får være den subjektive biten.

 

Faktum 5: Fermi har på gamingsiden av familien (GTX) fått kuttet flere ting som ville gjort den til en skikkelig beist på GPGPU, hvorfor? Fordi Nvidia ønsker å selge de samme kortene som Quadro og Tesla til opp mot 10 ganger høyere pris.

Med andre ord, vi snakkeer ikke om samme Fermi når vi setter spill opp mot forskning/teknologisk utnyttelse.

 

Faktum 6: Fermi blir meget sannsynlig mye bedre i sin andre eller kanskje tredje revisjon, altså som Gtx5xx og 6xx

 

 

Jeg tror at de som ønsket seg en GPGPU grafikkort er i den syvende himmel, og det unner jeg dem, men jeg og mange med som normale brukere er skuffet, veldig skuffet.

 

Edit: siste avsnittet manglet 2 ord.

 

Faktm 7: Gjøken sit i skuret og skriker KOKO

 

..som har like mye med Malvado's kommentar om at "..forskjellen er selvsagt at Nvidia yter bedre i apps / spill som er optimalisert for Nvidia.." (som var det jeg faktisk svarte på), som dine faktum har.

Endret av Terrasque
Lenke til kommentar

 

 

Faktum 1: Nvidia's nye kort har mye kraftigere tessellering enn dagens ati kort.

Faktum 2: Nvidia's GPGPU ytelse er i en helt annen klasse enn ATI's.

Faktum 3: Dirt 2, som ATI har brukt som skrytespill, bruker begge teknologier. Og er en av de spillene der 480'en konkurrerer direkte mot 5970 i ytelse.

 

Selvfølgelig kan det være tilfeldigheter, men det virker nesten som om nvidia's nye hardware har en fordel på et par ting.

 

1 : Tesselering er dog ikke trumfkortet og er helt avhengig av hvordan det kommer til å bli brukt av software utviklerne , noe Anandtech pent påpekte i overnevnte link :

"But with that said, NVIDIA having a more powerful tessellator doesn't mean much on its own. Tessellation is wholly dependent on game developers to make use of it and to empower users to adjust the tessellation levels. Currently every DX11 game using tessellation uses a fixed amount of it, so NVIDIA's extra tessellation abilities are going unused. This doesn't mean that tessellation will always be used like this, but it means things have to change, and counting on change is a risky thing

 

Men utifra det jeg har sett hittil så tyder det enstemning på at Nvidia har langt kraftigere tesselering enn Ati, om dette endrer seg (altså pga software) gjenstår å se, men så langt er nok Nvidia best der.

 

Jepp, dette kortet er definitivt en gamble. DX11 ting som tessellering ser imponerende ut, og GPGPU kan brukes til å få enda bedre grafikk (dirt2 bruker det til skygger, for eksempel).

 

Men, mange av dagens spill utvikles til konsoll i tillegg, og det gir fort en del begrensninger på hva man kan gjøre i grafikk-motoren. Vil tippe at i nær fremtid så vil de fleste "DX11" utgivelsene være konsoll-grafikk med et par påslengte dx11-features bare for å kunne si "Vi har DX11!".

Lenke til kommentar

Vel jeg synes satsing til nvidia er frisk, og at de tenker andre bruksområder. Men uten at disse korta er i rigger i seperate rom kan jeg ærlig talt ikke tenke meg at noen kontorotter som helst vil ha disse. Og hva kontorotter vil ha burde jeg vite siden jeg selv har vært en slik en i 20 av de siste 25 åra.

 

Ærlig talt Simen og GDIraptor, kan dere over hode tenke dere å jobbe med tankeintesniv virksomhet ved samme skrivebord som en rigg som inneholder gtx480, eller radeon 5970, for den saks skyld selv om den tross alt er en god del bedre på støy.

 

Og jeg kan ikke fatte hvordan kortet kan få et anbefalt stempel, skal ikke dette gis til produkuter som gir deg en fordel i forhold til andre produkter i samme segment.

 

Jeg har dog inga tvil om at Fermi I er et kapittel som er godt i glemmeboka om vel et års tid, og at etterfølgeren kan bli verdt å minnes, dog tviler jeg på at HW.no kan få tilbake sin tilit blant nerder som kan endel på en samme tid som nvida kan rette opp denne arkitekturens svakheter.

Lenke til kommentar
Delve a little deeper, handily not mentioned in any briefing, and NVIDIA is limiting the double-precision speed of the desktop GF100 part to one-eighth of single-precision throughput, rather than keep it at half-speed, as per the Radeon HD 5000-series. We'll have to wait for the Tesla parts before that's restored to Radeon-matching levels.
Om dette stemmer så kan det være en liten bremsekloss. Det er nok en del spill som bruker double (ivertfall delvis). link
Lenke til kommentar

Min lille "kvalifiserte gjettning" på hva fermi II er

 

Tdp drastisk redusert

512 cuda kjerner

3 native skjermutganger ala radeon 5xxx

+ diverse tweeks osv , ca 25-45% bedre på alt en gtx480.

 

Og dette nok innen 8 md.

 

Men Fermi i dag fremstår som den fiasko Phenom I var for AMD.

 

Så synes vel noen av de som vet hvordan jeg argumenter mot Intel ved enhver anledning, så lenge jeg har det minste grunnlag for dette, og derfor tror at jeg jeg er AMD fanboy at det rart at jeg argumenterer for nvidia her. Fakta er at vi trenger nvidia amd vs nvidia på markedsandeler er ikke så gærn, derimot på cpu siden er den forferdelig, ja vi trenger Intel, men vi trenger intel 25% mindre.

Lenke til kommentar
Delve a little deeper, handily not mentioned in any briefing, and NVIDIA is limiting the double-precision speed of the desktop GF100 part to one-eighth of single-precision throughput, rather than keep it at half-speed, as per the Radeon HD 5000-series. We'll have to wait for the Tesla parts before that's restored to Radeon-matching levels.
Om dette stemmer så kan det være en liten bremsekloss. Det er nok en del spill som bruker double (ivertfall delvis). link

Ingen spill bruker double prescition (64-bit) mener du vel?

Ingen av AMD sine low- og mid-end kort har støtte for double prescition, kun RV870 brikken...

Lenke til kommentar
Raptor' date='29. mars 2010 - 14:48' timestamp='1269870481' post='15432063']

Ingen spill bruker double prescition (64-bit) mener du vel?

Ingen av AMD sine low- og mid-end kort har støtte for double prescition, kun RV870 brikken...

Men de har vel samme støtte i maskinvaren? Og siden OpenGL 4 krever double precision så ligger det nesten i kortene at dette vil bli aktivert ganske snart.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...