Gå til innhold

Test: Nvidia Gefore GTX 480


Anbefalte innlegg

Sitter på ett 8800GTX kort selv, og hadde planer om å kjøpe nvidia når fermi kom, men det blir nok heller en Radeon 5870 på meg gitt.

Synd, for jeg har alltid likt nvidia :/

Jeg er egentlig litt NVIDIA fanboi' selv, men realiteter er viktigere enn merket på kortet. Uansett så er det flott for oss forbrukerne at det er flere som kjemper om samme segmenter. Nå som AMD har begynt å produsere bedre prosessorer, så ser framtiden lys ut for den som skal bygge PC :-)

Lenke til kommentar
Videoannonse
Annonse

Stor fan av nvidia, men dette var seriøst helt bak mål. Hvordan kan de gi ut noe slikt til den prisen? Jeg hadde derimot himlet med øynene om GTX480 kostet 3.000-3.200, men dette var forferdelig skuffende etter så lang venting.

 

Hva er ytelsen og prisen på GTX470? Er den mer konkurransedyktig mot ATI sine kort?

 

Er det utenlandske priser du ser på? Isåfall regn med en 1000 lapp ekstra på både GTX470 og 480.

Lenke til kommentar

Nvidia holder faktisk på med noe ganske så interessant. De har laget et meget kraftig GPGPU kort (DX11 / kjøre noen typer kode på kortet mye raskere enn cpu kan. Tenk video encoding, delvis raytracing, fysikk, kalkulering av hår bevegelse / klær-bevegelse osv), som SAMTIDIG klarer å drive eksisterende spill like bra som det beste spesialiserte kortet til ATI.

 

Hvis CUDA / OpenCL blir vanlig i spill som kommer har Nvidia en enorm fordel med den nye arkitekturen, og på ting som tessellering klarer nvidia's nye kort mer enn ATI's toppkort.

 

Det er i øyeblikket vanskelig å si om dette er et bra eller dårlig trekk, første generasjonen er tydeligvis dårligere enn hva både vi og nvidia håpet på, og jeg tror de gambler litt med den nye arkitekturen.

 

Dagens spill trenger ikke kraftigere kort, og mange av de nye spillene er også utviklet for konsoll og har dermed begrensninger i hva de kan ta i bruk av nye ting. Som rent gamer kort slik spillmarkedet er akkurat nå er det en flopp. Men så trenger ikke dagens spill et topp grafikkort heller.

 

Tror nvidia prøver å lage et nytt marked her. High-end / next gen pc gaming grafikk, og en spesialisert prosessor for forskjellige krevende programmer. Folding@home og video encoding er to eksempler på programmer som kan tjene mye på dette. Akkurat nå er det litt "høna og egget" problem ute og går, og jeg tror nvidia forsøker å endre det med dette kortet.

 

Spennende, men foreløpig litt ubrukelig.

Lenke til kommentar

skjermkort nå tildags er så spreke at nvidia og ati har funnet nye måter å få spill til å "trenge" den ekstra kraften som bor i topmodellene. som å spille over 3 skjermer, eller lage spillet om til 3d(ekte dybde) med spessielle briller/utstyr. og det kommer nok til å fortsette sånn frem til det kommer ny genrasjon med spillkonsoller. det er ferre å ferre spillprodusenter som satser eksklusivt på stortittler til pc. og heller satser på multiplattform.

Lenke til kommentar

Med så mange gamers som har venta i over 6 mnd på at Nvidia endelig skal slippe nye skjermkort, og så presterer dere en slik smørje av en test? Kan vi forvente en oppdatert artikkel snarlig?? Jeg synes dette er noe som vi trofaste lesere av hardware.no burde ha krav på...

Lenke til kommentar
Raptor' date='27. mars 2010 - 18:55' timestamp='1269712547' post='15425397']

Vites det om GTX 470 og 480 har 1/2 DP-ytelse (relativt til SP-ytelse altså), eller er DP-ytelsen begrenset på forbrukermodellen som noen rykter skulle ha det til, slik at kun Fermi (dvs. proff-kort) har 1/2 DP-ytelse?

 

I følge en random slashdot kommentar så var visst DP nerfet til 1/4 av maks kapasitet. Ganske så skuffende, egentlig.

Ja hvis det er tilfellet vil jeg garantert ikke kjøpe et GF100-kort, ellers kunne det faktisk vært interessant å ha både et HD5870 og et GTX470/480. Men det er litt merkelig at det ikke nevnes at DP-ytelsen er nerfed i noen av artiklene jeg har lest, mens de fleste av dem nevner den gode DP-ytelsen til arkitekturen generelt sett.

 

Men så er det jo fullt mulig at Nvidia har "glemt" å nevne det i pressematerialet (evt. kan det jo også være at GF100 faktisk har full DP-ytelse).

I ren nysgjerrighet, hva skal du med DP ytelsen?

For de typiske kundene som er interessert i Dual Prescition så er Tesla-kortene uansett mest aktuelle.

Skal ta mastergrad i computational physics på UiO, og tenker da på å se på GPGPU. Det er meget mulig at SP vil være tilstrekkelig, men vi fysikere vil jo helst ha så lite med programmering og flyttals-spesifikk matematikk å gjøre som mulig, så da liker vi jo å bruke 64-bits flyttal uansett om det trengs eller ikke, "bare for å være sikker" :p.

 

Er jeg heldig får jeg jo kanskje tilgang til maskiner på USIT, men det er uansett kjekt og moro å ha en relevant GPU på hjemme-PC-en også, og da blir nok de proffe kortene alt for dyre (også vil jeg jo helst kunne spille på maskinvaren også, når jeg førsta bruker masse penger på det).

Lenke til kommentar

Jeg er egentlig diehard nVidia fanboy så det holder, men dette var egentlig en solid nedtur.

Har gått og ventet på dette lenge, men nå ser det ut som jeg heller drøyer oppgraderingen, er ikke verdt pengene sett opp imot ytelse :-(

 

(Men det blir ikke noe ATI på meg uansett) ;-)

 

Jeg forstår godt at du er nVidia fanboy. Dere er vel kompiser og greier ... I motsetning til alle andre, så er ikke nVidia kun opptatt av pengene dine?

Lenke til kommentar

Stor fan av nvidia, men dette var seriøst helt bak mål. Hvordan kan de gi ut noe slikt til den prisen? Jeg hadde derimot himlet med øynene om GTX480 kostet 3.000-3.200, men dette var forferdelig skuffende etter så lang venting.

 

Hva er ytelsen og prisen på GTX470? Er den mer konkurransedyktig mot ATI sine kort?

 

Er det utenlandske priser du ser på? Isåfall regn med en 1000 lapp ekstra på både GTX470 og 480.

Tror du missforstod meg. Jeg mente at jeg hadde vært imponert om GTX480 hadde den ytelsen den har, men bare kostet 3.000-3.200 her i Norge. Slik GTX480 er idag yter den alt for dårlig for prislappen sin i forhold til hvor lang tid de har hatt på seg.

Lenke til kommentar

Et deilig kort, som jeg ville hatt inne i pc`n min hvis jeg var rikmanns-sønn. Men som alltid når det kommer et splintrende nytt kort på markedet, så går det vel gjerne noen måneder eller et halvt år før det kommer spill som gjør bruk av alle de nye funksjonene og effektene, og allerede da har vel kortet gått ned i pris?

 

Ser mange klager på lite ytelsesforskjell mellom ATI og Nvidias nye babyer, men det er jo først når spilla begynner å bruke de nye teknologiene man ser forskjeller (som jo anmelder er inne på her). Kanskje ATI klarer å hale innpå nesten samme fps som Nvidia ved en gitt innstilling i f.eks Ghost Recon Future Solider, men kanskje de også har samme hastighet når Nvidia skrur på et hav av nye grafikkporno effekter som ATI ikke har.

Lenke til kommentar

Et deilig kort, som jeg ville hatt inne i pc`n min hvis jeg var rikmanns-sønn. Men som alltid når det kommer et splintrende nytt kort på markedet, så går det vel gjerne noen måneder eller et halvt år før det kommer spill som gjør bruk av alle de nye funksjonene og effektene, og allerede da har vel kortet gått ned i pris?

 

Ser mange klager på lite ytelsesforskjell mellom ATI og Nvidias nye babyer, men det er jo først når spilla begynner å bruke de nye teknologiene man ser forskjeller (som jo anmelder er inne på her). Kanskje ATI klarer å hale innpå nesten samme fps som Nvidia ved en gitt innstilling i f.eks Ghost Recon Future Solider, men kanskje de også har samme hastighet når Nvidia skrur på et hav av nye grafikkporno effekter som ATI ikke har.

 

*Kikker utover havet og ser en person ror og ror for og komme seg i land*

Lenke til kommentar

[...] Kanskje ATI klarer å hale innpå nesten samme fps som Nvidia ved en gitt innstilling i f.eks Ghost Recon Future Solider, men kanskje de også har samme hastighet når Nvidia skrur på et hav av nye grafikkporno effekter som ATI ikke har.

Hva slags grafikkpornografiske effekter er det Nvidia har som ATI ikke har støttet i over et halvt år nå?

Lenke til kommentar

Første reaksjonen var stor skuffelse...

 

Det kan se ut som at nVidia ikke tok stor nok høyde for strømforbruk og varmeutvikling, da de implementerte den nye teknologien. Eller kanskje det var nettopp det de gjorde?

 

GTX 480 bærer preg av at det skulle lages et kort med ny teknologi. De måtte altså prioritere teknologi og "ny grafikk" foran ytelse, da den nye "klumpen" deres trekker forferdelig med strøm.

 

Man kan vel forestille seg varmeutviklingen dersom man i tillegg skulle konkurrert på ytelse. Da hadde nok kjøleløsningen skremt Boeingen på gardermoen av rullebanen laugh.gif .

 

 

Her er en litt interessant video hvor nVidia viser noe av teknologien og hvor den "skjulte ytelsen" befinner seg.

 

 

 

Jeg kommer ikke til å kjøpe GTX480, da jeg ser på kortet som nyfødt og lite utviklet teknologi med noe skuffende ytelse. Smøre seg med tålmodighet og vente på de neste utgavene hvor barnesykdommer er luket bort og ytelsen kommer til sin rett.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...