Gå til innhold

Nvidia bekrefter spesifikasjonener


Anbefalte innlegg

8+6-pins kontakter :p Vil det da funke med 6+6pin som jeg har på PSUen min??? 600$ er jo bare 3000kr, men med avgifter kan vi vel regne med 4-5000kr?

Norske avgifter er bare på 25% + ca en femtilapp i miljøgebyr ("pant"). Norske nettbutikker tar faktisk til tider ikke nevneverdig høyere avanse enn de amerikanske så prisen etter avgiftene blir ofte godt sammenlignbare på de mest populære produktene. Ok, for å komme til saken så regner jeg med at 600$ utsalgspris i USA betyr fra 3900 kr utsalgspris i Norge.

 

Kan man ut fra dette si hvordan GTX 280 yter i forhold til 8800GTX?

Nei, men vi kan få en indikasjon på ytelsen ved å sammenligne spesifikasjoner.

 

Kort:....................... GTX 280 .. 8800 GTX .. 8800 GTS

Minne:.................... 1024 MB .. 768 MB ..... 512 MB

Minnebåndbredde: 141,7 GB/s 86,4 GB/s . 62,1 GB/s

Fillrate:................... 48,2 G/s .. 36,8 G/s ... 41,6 G/s

Shadere*frekvens: 311 G ....... 173 G ....... 208 G

Regnekraft:............ 933 Gflops 518 Gflops 624 Gflops

 

PS. Legg merke til at shadere*frekvens og regnekraft er proporsjonale. De forteller "det samme" med bare litt forskjellige benevninger. Omregningsfaktoren er 3.

Lenke til kommentar
Videoannonse
Annonse
Jo, men hadde vært mye bedre med noe som ikke kanskje like stor som en 880gts. Akkurat passe stor imo, det jeg ikke liker er at jo større og kraftigere så må du ha større kabinett :p og det suger max når du skal ha en 700w strømforsyning, 5 disker og en bra cpu kjøler som kjøler bra.

Hvor får du det fra? Du kan jo kjøre 8800GTX i SLi på en 550/620W :shrug:

 

En annen ting er optimalisering for Ageia physx i hardware på gpu, skal vel også være implementert her...

Det er selvsagt en fordel ja, spent på å se hvordan det yter.

 

Kan man ut fra dette si hvordan GTX 280 yter i forhold til 8800GTX?
Kan man ut fra dette si hvordan Geforce GTX 280 yter i forhold til 9800GX2?

12117698854f592cb84b.jpg

 

 

Litt flisespikking på artikkelen fra min side:

 

Det vil si at ved under optimale forhold og maks load genererer 236 Watt med varme

På norsk kalles det for full belastning

 

Nvidia har også prestert å fylle opp alle mulige minneplasser på dette kortet. Det betyr at de står fast på 1 GB minne, og kan dermed ikke levere kort med 2 GB.

Det gjør de faktisk enklere enn ATI siden det er relativt enkelt å kjøpe inn brikker med mer kapasitet. Altså 16*128 MByte i stedet for 16*64 MByte. Det er vankeligere for ATI siden de hadde trengt 8*256 MByte for å få 2 GByte. 256 MB-brikker er vel ikke mulig å få tak i ennå så vidt jeg vet og når de blir det så vil de neppe klare like høy klokkehastighet som de mindre brikkene.

 

Når du tenker deg om litt, konkluderer du nok med at 1 GB på 512-bit er mer enn nok, men for designere vil dette muligens sette en liten stopper.

Jeg tenker meg om men klarer ikke å finne noen gode grunner til at 1GB på 512-bit er for lite.

Jada jada..

 

Etter det jeg har lest så vil det ikke gå, men jeg skal se litt mer på det.

 

Tre ord: 3D-modellering, Crysis og 30" ;)

 

Temmelig heftig kort med andre ord.

Det kan du si, tviler nok ikke på at mr Andrull presser fram en test i nær framtid :thumbup:

 

Må ha det, bare MÅ ha det!

 

Dette ser virkelig bra ut, ut i fra spesifikasjonene som Simen1 nevnte, eller?

Glad jeg ikke er alene :green:

 

Ja, det ser slik ut. Hvordan det yter irl kan dog bli en helt annen kake, men vï får se :D

Lenke til kommentar
Jo, men hadde vært mye bedre med noe som ikke kanskje like stor som en 880gts. Akkurat passe stor imo, det jeg ikke liker er at jo større og kraftigere så må du ha større kabinett :p og det suger max når du skal ha en 700w strømforsyning, 5 disker og en bra cpu kjøler som kjøler bra.

Hvor får du det fra? Du kan jo kjøre 8800GTX i SLi på en 550/620W :shrug:

Ble litt for ivrig men vis du plusser noe extra til PC-en så kan det skje.

Lenke til kommentar
Gjest Slettet+6132

Takk for linken (bildet) Wheelman,. :thumbup:

 

Ser at det blir ATI på meg i neste runde.

 

200w++/65nm teknologi og høy pris = "no-no" for meg. :)

Lenke til kommentar
Er så glad for at jeg i fjor på denne tiden bestemte meg for å vente i 5 år før jeg kjøper meg ordentlig god high-end pc. Nå er det 4 år igjen og innen den tid bør ytelsen har gått opp dramatisk. Får ihvertfall kjørt Crysis på Ultra-High! :p

Vel, naturligvis -- det er aldri gunstig å kjøpe hardware.

Lenke til kommentar
Er så glad for at jeg i fjor på denne tiden bestemte meg for å vente i 5 år før jeg kjøper meg ordentlig god high-end pc. Nå er det 4 år igjen og innen den tid bør ytelsen har gått opp dramatisk. Får ihvertfall kjørt Crysis på Ultra-High! :p

Det kommer til å bli kjipt mellom 2010 og 2012 når du sitter med en 3-5 år gammel PC og prøver å spille nye spill.

 

Hadde du kjøpt billigere PC i 2007 ville du hatt penger til å oppgradere den i 2009/2010 og dermed fått en god spilleopplevelse også de 2-3 siste årene av perioden.

 

Med så lange intervaller som 5 år så vil du sitte med en gammel og treg maskin uansett hvor mye penger du brukte på den i utgangspunktet. Reduserer du intervallene til ca 2-3 år vil du får mye mer kontinuerlig glede av maskinene.

 

5 års intervaller med dyre maskiner:

unødvendig bra-bra-middels-dårlig-elendig-unødvendig bra-bra-middels-dårlig-elendig- (repetér)

 

2-3 års intervaller med lavere utgangspris:

bra-middels-bra-middels-bra-middels-bra-middels-bra-middels- (repetér)

Lenke til kommentar

HD48070 er vel mer beregnet å kjempe mot 9800GTX. Det er ingen kraftplugg som er ment å konkurrere mot GTX260 og GTX260.

HD 4800X2 som kommer senere i sommer/høst vil nok derimot bli en direkte konkurrent ja.

 

Hvordan skal man tolke det da HD 4870 flere flops,

Mulig jeg husker feil, men ATI har alltid hatt relativt mange "flops" i forhold til egentlig ytelse. Tror det ivhertfall var 2900XTX som hadde en helt "enorm" "flops" ytelse, men en ytelse som på langt nær stod i stil med disse tallene.

 

Vi kan jo også se på 8800GTX VS 8800GTS. Førstnevnte er noe bedre i ytelse, men har over 100Gigaflops mindre.

Endret av andrull
Lenke til kommentar
8+6-pins kontakter :p Vil det da funke med 6+6pin som jeg har på PSUen min??? 600$ er jo bare 3000kr, men med avgifter kan vi vel regne med 4-5000kr?

Norske avgifter er bare på 25% + ca en femtilapp i miljøgebyr ("pant"). Norske nettbutikker tar faktisk til tider ikke nevneverdig høyere avanse enn de amerikanske så prisen etter avgiftene blir ofte godt sammenlignbare på de mest populære produktene. Ok, for å komme til saken så regner jeg med at 600$ utsalgspris i USA betyr fra 3900 kr utsalgspris i Norge.

 

Kan man ut fra dette si hvordan GTX 280 yter i forhold til 8800GTX?

Nei, men vi kan få en indikasjon på ytelsen ved å sammenligne spesifikasjoner.

 

Kort:....................... GTX 280 .. 8800 GTX .. 8800 GTS

Minne:.................... 1024 MB .. 768 MB ..... 512 MB

Minnebåndbredde: 141,7 GB/s 86,4 GB/s . 62,1 GB/s

Fillrate:................... 48,2 G/s .. 36,8 G/s ... 41,6 G/s

Shadere*frekvens: 311 G ....... 173 G ....... 208 G

Regnekraft:............ 933 Gflops 518 Gflops 624 Gflops

 

PS. Legg merke til at shadere*frekvens og regnekraft er proporsjonale. De forteller "det samme" med bare litt forskjellige benevninger. Omregningsfaktoren er 3.

Husk på at nvidia "lovet" 50% høyere ytelse per shader.

Altså blir det "468G" med shader*frekvens. :)

Lenke til kommentar

Har du sett spesifikasjonene til HD3870?

På arket ser de voldsomt gode ut, men shaderene til ATI er langt mindre effektive, enn de som Nvidia bruker. HD3870 har 320Shadere, mens 9800GTX har 128 som yter en del mer.

 

Med 480 slike så vil de nok pasere 9800GTX, men ikke mye.

Se også på TMU's og ROP's. 32 og 16. 9800GTX har 16 og 64.

HD 4870 er også ventet å få noe over 0,8 Milliarder transistorer, mot 9800GTX som har 0,75 milliarder. GTX280 kommer på den andre siden med 1,4 Milliarder. Et antall som er over 70 % høyere.

 

Minneåbnbredden har dog øket en del siden sist med HD4870.

Ser vi på prisen som er satt så er den i ca 2500kr siktet og vil nok ha noe høyere ytelse enn 9800GTX, men tviler på det kommer til å guse kortet. Kanskje noe lignende som HD3870X2 i ytelse... ?

Endret av andrull
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...