Gå til innhold

Geforce GTX 280 testet


Anbefalte innlegg

Videoannonse
Annonse
Litt skuffende at kortet ikke støtter DX10.1. Spesielt et så dyrt kort som skal holde i flere år.

 

Nåja. De som punger ut med så mye for skjermkort, har typisk IKKE planer om å ha det i 5 år.

 

Leste gjennom hele testen til Guru3D. Var en del tester der 9800GX2 slo GTX 280. Spørs om dette vil endre seg med driveroppdateringer.

 

Ehm.. Det er umulig å vite, men skal man se tilbake til tidligere kort, så er det veldig sannsynlig at vi får bedre ytelse med driveroppdateringer. Jeg sliter med å skjønne hvorfor du ikke tror vi får det.

Lenke til kommentar
Litt skuffende at kortet ikke støtter DX10.1. Spesielt et så dyrt kort som skal holde i flere år.

 

Nåja. De som punger ut med så mye for skjermkort, har typisk IKKE planer om å ha det i 5 år.

Tja, jeg planlegger snart å kjøpe meg en pc til rundt 13k, helst med dette kortet inni. Har ikke planer om å oppgradere den PC-en på et par år, da jeg skal begynne å studere.(økonomi).

Endret av O.J
Lenke til kommentar
Leste gjennom hele testen til Guru3D. Var en del tester der 9800GX2 slo GTX 280. Spørs om dette vil endre seg med driveroppdateringer.

 

Ehm.. Det er umulig å vite, men skal man se tilbake til tidligere kort, så er det veldig sannsynlig at vi får bedre ytelse med driveroppdateringer. Jeg sliter med å skjønne hvorfor du ikke tror vi får det.

Nå er ikke hukommelsen min 100% i dag, men det sto i testen til Guru3D at grunnen til at 988GX2 vant i noen av testene var fordi den hadde flere av en type shadere. Dette vil nok ikke endre seg.

 

Men nye drivere vil jo skalere ytelsen til GTX280 opp og kanskje forbi der den tapte mot 9800GX2 denne gangen.

Lenke til kommentar
Tja, Radeon 9700 f.eks, det var iallefall det største hoppet i ytelse fra forrige generasjon jeg har sett i nyere tid.

 

Har skummet en del tester på GTX280 - i forhold til forhåndshypen er den en gedigen skuffelse, men ser man bak tallene og tar med i betraktning ny arkitektur - nye drivere så vil jeg kalle det lovende.

Men AMD har sin livs mulighet nå - og jeg tror AMD/ATI 48X0 serien kommer til å bli VELDIG konkurransedyktig.

 

R9700 hadde et av de større hoppene, men 100% var det overhodet ikke. Jeg aner ikke hva du viser til med det var en "gedingen skuffelse". Mener du at forhåndshypen var større med dette kortet enn tidligere lanseringer? Jeg har fulgt med siden de første voodoo-kortene kom, og jeg synes det er samme hypen hver bidige gang, hverken verre eller bedre denne gangen. Når man ser på tallene, så er det også den jevne økningen vi har sett ørten ganger før med nye lanseringer. Jeg fatter ikke hva som er så spesielt denne gangen, i hverken negativ eller positiv retning. Jeg taler sikkert til døve ører, for folk flest virker det som ikke tåler å høre at det ikke er "worst ever" eller "best ever" denne gangen. Tabloid mentalitet :no:

 

Tja, jeg planlegger snart å kjøpe meg en pc til rundt 13k, helst med dette kortet inni. Har ikke planer om å oppgradere den PC-en på et par år, da jeg skal begynne å studere.(økonomi).

 

Hvis du ikke planlegger å oppgradere på flere år, så er dette kortet et særdeles dårlig valg. Du får langt mer igjen for å kjøpe det nest beste nå, og ha muligheten til en pen og billig oppgradering om rundt 12-18mnd.

Lenke til kommentar
Tja, jeg planlegger snart å kjøpe meg en pc til rundt 13k, helst med dette kortet inni. Har ikke planer om å oppgradere den PC-en på et par år, da jeg skal begynne å studere.(økonomi).

 

Hvis du ikke planlegger å oppgradere på flere år, så er dette kortet et særdeles dårlig valg. Du får langt mer igjen for å kjøpe det nest beste nå, og ha muligheten til en pen og billig oppgradering om rundt 12-18mnd.

Hvis jeg skal kjøpe en ny PC nå, vil jeg gjerne ha det beste, med mindre prislappen blir altfor høy. Og så kanskje oppgradere til et nytt high-end skjermkort om rundt 2 år.

Endret av O.J
Lenke til kommentar
So in IDLE mode, you will not hear the card. We measure less than 38 DBa coming from the PC.

Gaming with an average title not stressing the GPU too much we can hear the fan a little, we measure roughly 40 DBa.

When we loop 3DMark Vantage for a while the GPU really heats up, as side-effect the fan RPM will go up even higher, the noise-levels are now 44 DBa which definitely is very hearable, overall these results are okay, really.

 

Tatt fra guru3d testen om geforce 280 gtx.

Men det er bekrefta at tempraturen er kun 20 grader føre den går inn i safemodus. så den er ganske høy.

allt står i testen(med forbehold at jeg har skrevet feil her).

 

http://www.guru3d.com/article/geforce-gtx-280-review-test/11

 

38 dbA er jo ikke akkurat kjempestille, da har de endel som bråker i den PCen fra før.

 

AtW

Lenke til kommentar

Anandtech:

At most, 105 NVIDIA GT200 die can be produced on a single 300mm 65nm wafer from TSMC. On the other end of the spectrum, Intel can fit around 2500 45nm Atom processors on a 300mm wafer.

 

If the number of transistors wasn't enough to turn this thing into a dinner plate sized bit of hardware, the fact that it's fabbed on a 65nm process definitely puts it over the top. Current CPUs are at 45nm and NVIDIA's major competitor in the GPU market, AMD, has been building 55nm graphics chips for over 7 months now. With so many transistors, choosing not to shrink their manufacturing process doesn't seem to make much sense to us. Smaller fab processes offer not only the potential for faster, cooler chips, but also significantly reduce the cost of the GPU itself. Because manufacturing costs are (after ramping production) on a per wafer basis, the more dies that can be packed onto a single waffer, the less each die costs. It is likely that NVIDIA didn't want to risk any possible delays arising from manufacturing process changes on this cycle, but that seems like a risk that would have been worth taking in this case.

 

Ser ut til at vi kan få et ganske stort forbedringspotensiale når NV tar seg tid til å krympe denne chippen. Dermed vil jeg si at NV kommer middels sterkt på ytelsesfronten ved lansering, og sannsynligvis enda sterkere om noen måneder. Den fordelen har neppe AMD/ATi. Det betyr selvsagt ingenting for reviews som skrives denne uka, men er verdt å tenke på. Jeg tror NVidia har posisjonert seg bra.

 

Hvis du ikke planlegger å oppgradere på flere år, så er dette kortet et særdeles dårlig valg. Du får langt mer igjen for å kjøpe det nest beste nå, og ha muligheten til en pen og billig oppgradering om rundt 12-18mnd.

Hvis jeg skal kjøpe en ny PC nå, vil jeg gjerne ha det beste, med mindre prislappen blir altfor høy. Og så kanskje oppgradere til et nytt high-end om rundt 2 år.

 

Det er jo selvsagt ditt valg, men det er veldig uøkonomisk.

Lenke til kommentar

38dbA er så stille/bråkete som man vil ha det.

Måleavstnad, resten av PCen bråker naturligvis, kabinett/bord osv.. kan være i veien i praksis, og det er alltid en del bakgrunnstøy generelt.

 

Så det blir litt håpløst å sammenligne med hvordna man har det hjemme hos seg selv. (for man sitter jo f. eks ikke med øret inntil skjermkortet til vanlig)

 

2*260 kort er nesten samme pris så 1 280 kort en liten tank bare det.
Er vel å missbruke defenisjonen "nesten" litt. ;)

2*3300kr = 6600kr

1*4700kr = 4700kr (og er også å få helt nede i 4300kr)

Endret av andrull
Lenke til kommentar
Med 4xAA var ytelse hoppet på opptil 200% kontra GeForce4Ti og opptil 300% kontra R8500 (med R8500 sammenlignet man dog SSAA mot MSAA).

 

Tja godt mulig om man legger til å fjerner eyecandy nye kort var laget for å yte bedre på, men 9700 var uansett glans perioden til ATI ja, men litt vaklendet av nevnte grunn den påstanden.

 

Edit

kortet mitt er foresten sent!!! hurra

Endret av simalarion
Lenke til kommentar

Beyond3D sin "NVIDIA GT200 GPU and Architecture Analysis" er oppe:

http://www.beyond3d.com/content/reviews/51/1

 

The stark reality is that GT200 has more of an eye on CUDA and non-graphics compute than any other NVIDIA processor before, and it speaks volumes, especially as they continue to ramp up the CUDA message and deploy Tesla into outposts of industry the company would previously have no business visiting. Oil and gas, computational finance, medical imaging, seismic exploration, bioinformatics and a whole host of other little niches are starting to open up, and what's primarily a processor designed for drawing things on your screen is now tasked with doing a lot more these days. The base computational foundation laid down by G80 now has DP and full-speed denormal support, which is no small matter as a new industry grows up.

 

Her har vi kanskje forklaringen til hvorfor spill ytelsen ikke er helt i tråd til antall transistorer eller prisen.

Lenke til kommentar
Beyond3D sin "NVIDIA GT200 GPU and Architecture Analysis" er oppe:

http://www.beyond3d.com/content/reviews/51/1

 

The stark reality is that GT200 has more of an eye on CUDA and non-graphics compute than any other NVIDIA processor before, and it speaks volumes, especially as they continue to ramp up the CUDA message and deploy Tesla into outposts of industry the company would previously have no business visiting. Oil and gas, computational finance, medical imaging, seismic exploration, bioinformatics and a whole host of other little niches are starting to open up, and what's primarily a processor designed for drawing things on your screen is now tasked with doing a lot more these days. The base computational foundation laid down by G80 now has DP and full-speed denormal support, which is no small matter as a new industry grows up.

 

Her har vi kanskje forklaringen til hvorfor spill ytelsen ikke er helt i tråd til antall transistorer eller prisen.

 

Hmm, I tråd med hva man kan forvente tipper jeg, med Cuda så kommer jo Nvidia til å kunne øke salget av high - end kortene og fortjenesten også. Enkelt og greit så har jo universiteter og andre forskningssentre mer en nok ressurser til å investere I et slikt oppsett som på mange ganger vil være langt billigere enn rack med Cpus.

 

Genialitet? Tror nok Amd / ati må innsee hva Nvidia prøver på og utvikle programvaren for sine kort kjapt om de ønsker å henge med.

Lenke til kommentar
Tja, Radeon 9700 f.eks, det var iallefall det største hoppet i ytelse fra forrige generasjon jeg har sett i nyere tid.

 

Har skummet en del tester på GTX280 - i forhold til forhåndshypen er den en gedigen skuffelse, men ser man bak tallene og tar med i betraktning ny arkitektur - nye drivere så vil jeg kalle det lovende.

Men AMD har sin livs mulighet nå - og jeg tror AMD/ATI 48X0 serien kommer til å bli VELDIG konkurransedyktig.

 

R9700 hadde et av de større hoppene, men 100% var det overhodet ikke. Jeg aner ikke hva du viser til med det var en "gedingen skuffelse". Mener du at forhåndshypen var større med dette kortet enn tidligere lanseringer? Jeg har fulgt med siden de første voodoo-kortene kom, og jeg synes det er samme hypen hver bidige gang, hverken verre eller bedre denne gangen. Når man ser på tallene, så er det også den jevne økningen vi har sett ørten ganger før med nye lanseringer. Jeg fatter ikke hva som er så spesielt denne gangen, i hverken negativ eller positiv retning. Jeg taler sikkert til døve ører, for folk flest virker det som ikke tåler å høre at det ikke er "worst ever" eller "best ever" denne gangen. Tabloid mentalitet :no:

 

 

 

 

Les igjennom hele posten før du svarer, les uthevet tekst spesielt.

 

Sier heller ikke at ytelseshoppet fra Radeon 8500 til 9700 var 100%, dselv om det nok ikke var langt unna.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...