Gå til innhold

Test: Nvidia Gefore GTX 480


Anbefalte innlegg

Videoannonse
Annonse

Hjelper lite med masse flott ny teknologi når kortet flopper totalt på støy/varme/strømforbruk,men når fermi blir krympet(28nm?) så kan dette bli mer spennende og om spillutviklerne følger opp.har lyst og teste nvidia når det kommer et kort som ikke failer på basicen,da støy/ varme betyr mye for min del.men husker mange klagde på ytelsen til i7 når den kom men virker som mange sitter på i7rigg nå,blir vel same story her tenker jeg,blir spennende og se hva hva folket sier når gtx 4xx er i hus :)

Lenke til kommentar

Jeg tror nok driverne har endel å gå på, med tanke på at vi snakker en stor forandring når det kommer til arkitektur her, det byr gjerne på mye potensiale i kommende drivere, tror spesielt det er mye å hente på SLI fronten.

 

Men 2x GTX480 er hodeløst syntes jeg til prisen, og det er utrolig synd og skuffende at det er et krav med SLI for å få mulighet for spilling over tre skjermer.

 

 

Mulig kanskje 2x GTX470 er en fin balanse mellom ytelse og pris? hmm.gif

Men har aldri vært noen stor fan av slike multi-GPU løsninger, syntes det stort sett blir alt for mye hodebry i forhold til gevinsten jeg får, enkelte spill har alt for dårlig skalering, du blir alt for avhengig av drivere og profiler og ikke minst blir det mye strøm og varme.

Lenke til kommentar

Selvsagt startet de ikke med å optimalisere driverne i går, men ATI har et hatt tid til dette over en mye lengre periode.

Noe dem ikke har. GF100 er som nevnt veldig forskinket, men det betyr ikke at driver utviklerene ikke har hatt noe hardware å jobbe med. Driverene hadde nok vært i mye dårligere stand i oktober i fjor om GTX4x0 hadde blitt lansert da.

Lenke til kommentar

Selvsagt startet de ikke med å optimalisere driverne i går, men ATI har et hatt tid til dette over en mye lengre periode.

Noe dem ikke har. GF100 er som nevnt veldig forskinket, men det betyr ikke at driver utviklerene ikke har hatt noe hardware å jobbe med. Driverene hadde nok vært i mye dårligere stand i oktober i fjor om GTX4x0 hadde blitt lansert da.

CUDA-teamet fikk fysisk hardware begynnelsen av september. De var allerede i stand til å vise frem en demo med ett GF100-kort i slutten av september på GPU Technology Conference hvor de for første gang presenterte Fermi. Det var dog et debug kort, og de ser ikke ut (fulle av ledninger og sensorer som er lodet på)

 

Prosessen med å utvikle en driver begynner lenge før de har fysisk hardware tilgjengelig.

 

AMD derimot har hatt en "enklere" jobb enn Nvidia. RV870 i bunn og grunn er en dobbel RV770 + støtte for DX11. GF100 har et helt nytt instruksjonset sammenlignet med G8x/G9x/GT2x0

Endret av [GDI]Raptor
Lenke til kommentar

" Compared to the Radeon HD 5870, AMD's fastest single-GPU graphics solution, the GTX 480 is a dominant force that only on a very rare occasion left the door open for AMD."Kalde fakta , så kan dere AMD-boys slippe klørne fra tapeten :)Det vil komme versjoner senere som hamler opp med tempratur og slikt.

Lenke til kommentar
Raptor' date='28. mars 2010 - 18:09' timestamp='1269796170' post='15428891']

CUDA-teamet fikk fysisk hardware begynnelsen av september. De var allerede i stand til å vise frem en demo med ett GF100-kort i slutten av september på GPU Technology Conference hvor de for første gang presenterte Fermi. Det var dog et debug kort, og de ser ikke ut (fulle av ledninger og sensorer som er lodet på)

Tviler på at det slår 3dfx Rampage. :D

post-6993-1269799828,5189_thumb.jpg

Lenke til kommentar
Vi må dessverre si at nok en gang har støyer litt mer enn ønskelig ved idle, og veldig mye mer enn vi ønsker oss når kortet står under belastning.

 

St0y og varmeutvikling er vel strengt tatt ikke vits aa ta med i senere tester? Hadde kortet ytt enormt mye bedre kunne jeg sett at det ville blitt gitt et enbefalt-stempel, men som vi vet er ikke dette tilfellet.

 

Edit: Maa si jeg lo naar jeg saa det bilde :p Gluing in progress!

Endret av M@R7!N
Lenke til kommentar

GDI Raptor: Du sier at størsteparten av inntektene til AMD/ATI og nVidia ligger i lav- og mellomsjiktet. Nå har jeg ikke statistikk, men jeg vil nesten påstå at de fleste som kjøper skjermkort løst pleier å kjøpe high-end sjiktet (F.eks 5770 og oppover). Da sitter vi igjen med OEM-produsenter som HP, Acer, Dell osv, som sikkert står for mesteparten av inntektene til skjemkortbedriftene. Det jeg lurer på da er: betyr egentlig ytelsen på slike kort så mye for valget om hvilket kort som skal i en stasjonær maskin av typen Elkjøp? Man skulle jo nesten tro at disse firmaene hadde avtaler med f.eks nVidia om å velge deres skjermkort i x år fremover, det er jo tross alt ikke så altfor stor forskjell mellom lav- og mellombudsjettskortene til ATI og nVidia.

Lenke til kommentar
GDI Raptor: Du sier at størsteparten av inntektene til AMD/ATI og nVidia ligger i lav- og mellomsjiktet. Nå har jeg ikke statistikk, men jeg vil nesten påstå at de fleste som kjøper skjermkort løst pleier å kjøpe high-end sjiktet (F.eks 5770 og oppover). Da sitter vi igjen med OEM-produsenter som HP, Acer, Dell osv, som sikkert står for mesteparten av inntektene til skjemkortbedriftene. Det jeg lurer på da er: betyr egentlig ytelsen på slike kort så mye for valget om hvilket kort som skal i en stasjonær maskin av typen Elkjøp? Man skulle jo nesten tro at disse firmaene hadde avtaler med f.eks nVidia om å velge deres skjermkort i x år fremover, det er jo tross alt ikke så altfor stor forskjell mellom lav- og mellombudsjettskortene til ATI og nVidia.

Ekskluderende avtaler er ulovlige i de fleste siviliserte land av konkurransehensyn. Dell har brent seg på den typen avtaler tidligere og blitt hardt straffet for det. Jeg tror ikke det frister til gjentagelse.

Lenke til kommentar

Jeg ble også veldig skuffet over dette kortet men dere må huske at når quad kom på banen så gav ikke det noe bedre ytelse i spillene som var den gang.

 

samme er det med denne arkitekturen dette korte er ikke noe fps knuser for dagens spill utviklere trenger og legge mer vekt på flerprossesering pluss at det som er litt av dealen med fermi er at opp til fermi så er all wireframe i 3d grafikken prossesert av prossessoren og skjermkort fikser teksturer shadere osv.

 

Det som det er blitt åpnet for i dx11 som fermi har lagt til rette for er å la skjermkorter også ta seg av wireframe og den slags. og det skal forbedre både grafikk og ytelse i spill fremover i tid for i dag er det for stor begrensing i at 3d framen skal lages i cpuen og så bli kopiert over til skjermkortet for så og lagt texturer på osv. når utviklere tar høyde for dette så tror jeg fermi vil bli overlegen

Lenke til kommentar

Jallanissen: Problemet er: kortet er for varmt, selv når du ikke bruker kortet, så går vifta på 75% hastighet, noe som er MYE, og MYE vifte betyr VARMT kort.

 

kortet er treigt, VELDIG treigt, hadde det vært sluppet når det var påtenkt, for 6 mnd siden, klart, helt klart en anen sak, men nå er det så mye forsinket, at ATI nå har ett såppas stort forskudd på neste generasjon.

 

OpenGL 4.0

Dere leste rett: OpenGL er på vei tilbake, for fullt, og ATI's kort støtter dette alleredet.

ATI's litt mindre kort, 5850, blandt anna, får støtte for dette ved en driver oppdatering i fremtiden.

 

Strøm forbruk:

Kortet bruker AAAAAAAAALT for mye strøm, i SLI modus, behøver du nesten din egen lille fisjons reaktor.

 

CUDA:

Dette...kan være enten nVidias geni strek, eller dems fall.

gjenstår og se faktiskt.

 

3DfX - Ja, dere leste rett.

nVidia kjøpte dette selskapet for 10 år siden, og har fremdeles masse av dems patenter, ubrukt..

nVidia MÅ få en kanin opp av hatten, og det kanskje må være ett GTX2 480 kort, eller en helt ny brikke, Fermi2, men de MÅ få orden på strøm og varmen på kortene.

 

Ray-Tracing - Dette er hva som er "inn" akkurat nå, og 3Dfx hadde dette i sitt beta kort, 3Dfx Rampage (Kode - Spectre) for 10 år siden, hva har nVidia gjort med teknologien.....ventet...

CausticRT og andre, har nå tatt inn forspranget til nVidia, og som det første 3Dfx Voodoo kortet var addon, blir også de nye kortene addons med Ray-tracing teknologi.

 

nVidia har tatt alt for mye for gitt, de må våkne, og det raskere enn de kan si "hæææ?".

 

 

enig med jallanisse er heilt vittig og se hvor mange som ikkke fatte hva fermi innebærer.

du har jo absolutt ingen peiling på hva du snakker om her sjekk videoen som er postet 2 hakk ovenfør.

det er bare litt av det nvidia fermi går i retning av geometri delen i ett skjermkort har nesten ikke blitt oppgradert på årevis pga av at apiene ikke har støttet det. før dx11 ati har ignorert mye av det nye med dx11 og kjørt på og pushe fps på gamle spill mens ati fermi satser på fremtiden det er nærmest en revulusjon i måten og levere grafikk. som nevnt tidligere så er det allerede en stor flaskehals mellom prossesor og skjermkort så begrenser hvor detaljert grafikken kan være geometrisk. Så bare vent til spillprodusentene begynner og legge vekt på dx11 og la skjermkortet ta seg av også geometri så skal du se at dette kommer til og ta av.

 

1 spill i dag utnytter sikkert ikke halvparten av streaming prossessorene i fermi. derfor vil ikke dagens spill yte noe særlig bedre på fermi enn andre kort. men det åpnes for enorm detaljering i fremtidige spill. til mer streaming pross. til mer kan utviklerene putte på av detaljer uten at det går ut over ytelsen i forhold til uten de detaljene men og få dagens spill til og dele opp oppgavene enda mer for og prøve og uppe ytelsen er så si umuligt for utviklerene av spillet visse ting lar seg ikke dele opp i flere prossesser.

Lenke til kommentar

Jepp, Fermi virker litt forut sin tid.. Høres jo smått ironisk ut med tanke på at kortet har blitt utsatt og forsinket mange ganger.

 

Spørsmålet blir vell heller om når vi eventuelt vil se potensiale til Fermi i full blomstring? Jeg mistenker at innen den tid så har vi nok fått GTX485 om vi ikke allerede har kommet oss over til Fermi rev2 i form av GTX580?

 

 

Men jeg tror fremdeles at det er mye å hente på driver optimalisering her og en stor fordel for nVIDIA og Fermi er jo at de faktisk gir deg best single-GPU ytelse per dags dato, samtidig som det gir en gratis billett inn i "fremtiden" som potensielt kan resultere i at du går fra et "så vidt bedre" til en "soleklart bedre" skjermkort når potensiale benyttes med tiden!

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...