WheelMan Skrevet 28. mai 2008 Skrevet 28. mai 2008 (endret) Mye har vært sagt om Geforce GTX 280 og GTX 260, nå avklarer Nvidia en rekke spørsmål. Les mer Endret 28. mai 2008 av WheelMan
Foley Skrevet 28. mai 2008 Skrevet 28. mai 2008 Mye har vært sagt om Geforce GTX 280 GTX og 260, nå avklarer Nvidia en rekke spørsmål. Jeg var visst ikke den første til å se den nei.
Uglegutt Skrevet 28. mai 2008 Skrevet 28. mai 2008 ...men for designere vil nok dette sette en liten stopper "Designere", antar det menes grafikere etc, de bruker vel gjerne profesjonelle løsninger, med mer minne etc..
moscito Skrevet 28. mai 2008 Skrevet 28. mai 2008 8+6-pins kontakter Vil det da funke med 6+6pin som jeg har på PSUen min??? 600$ er jo bare 3000kr, men med avgifter kan vi vel regne med 4-5000kr?
WheelMan Skrevet 28. mai 2008 Forfatter Skrevet 28. mai 2008 Mye har vært sagt om Geforce GTX 280 GTX og 260, nå avklarer Nvidia en rekke spørsmål. Jeg var visst ikke den første til å se den nei. Redaktøren som retta ingressen, skyld på han 8+6-pins kontakter Vil det da funke med 6+6pin som jeg har på PSUen min??? 600$ er jo bare 3000kr, men med avgifter kan vi vel regne med 4-5000kr? Det vil vel fungere, men med redusert funksjonalitet på samme måte som ATI sine kort. Det kan stemme godt ja.
pxK Skrevet 28. mai 2008 Skrevet 28. mai 2008 Bleh Vil helst ha en super skjermkort uten at den er gigantisk og varm som en ovn..
WheelMan Skrevet 28. mai 2008 Forfatter Skrevet 28. mai 2008 Varme er for mange enthusiaster synonymt med kraft. Det vil si, mer varme, mer kraft
pxK Skrevet 28. mai 2008 Skrevet 28. mai 2008 Jo, men hadde vært mye bedre med noe som ikke kanskje like stor som en 880gts. Akkurat passe stor imo, det jeg ikke liker er at jo større og kraftigere så må du ha større kabinett og det suger max når du skal ha en 700w strømforsyning, 5 disker og en bra cpu kjøler som kjøler bra. Ender som oftest med en STOR kabinett vis alt skal ha plass da :/ stor kabinett imo er styggt..
JFM Skrevet 28. mai 2008 Skrevet 28. mai 2008 Kan man ut fra dette si hvordan Geforce GTX 280 yter i forhold til 9800GX2?
kjeLL// Skrevet 28. mai 2008 Skrevet 28. mai 2008 200w er så sykt mye for ett kort det. når mitt system med [email protected] 2gb ram og hd3850 bruker det når jeg får pressa den maks. får håpe for nvidia sin del at det bruker VELDIG lite under idle. hva er den chippen nærmest sli brua fornoe?
Sokkalf™ Skrevet 28. mai 2008 Skrevet 28. mai 2008 Teksture fill-rate: 48,2 Billioner/sek Mener dere egentlig milliarder, eller går det virkelig så fort for tiden?
Atypic Skrevet 28. mai 2008 Skrevet 28. mai 2008 Hehe, 48 _trillioner_ er vel å ta i litt :-) Regner med det er snakk om milliarder her, ikke billioner (1 amerikansk billion = 1 norsk milliard).
Bentus Skrevet 28. mai 2008 Skrevet 28. mai 2008 Begynner å tviholde meg mer og mer til ATI igjen=) Ser nok ut som nvidia vil bare tjene penger, litt rip off for folket.
fflex Skrevet 28. mai 2008 Skrevet 28. mai 2008 (endret) Begynner å tviholde meg mer og mer til ATI igjen=) Ser nok ut som nvidia vil bare tjene penger, litt rip off for folket. Hvilken verden lever du i? Alle bedrifter er avhengig av å tjene penger. Ontopic: Ser ut som disse kortene vil yte veldig veldig bra... too bad jeg ikke er interessert i å bruke mer penger på nytt kabbis + PSU Endret 28. mai 2008 av fflex
web76 Skrevet 28. mai 2008 Skrevet 28. mai 2008 En annen ting er optimalisering for Ageia physx i hardware på gpu, skal vel også være implementert her...
evgeny Skrevet 28. mai 2008 Skrevet 28. mai 2008 Kan man ut fra dette si hvordan GTX 280 yter i forhold til 8800GTX?
RamGuy Skrevet 28. mai 2008 Skrevet 28. mai 2008 Syntes egentlig ikke dette så så imponerende ut jeg, men er mulig at arkitekturen til GPU-en er såpass bra at det booster det hele, samt det er vell noe PhysX hardware å spore på disse kortene?
Simen1 Skrevet 28. mai 2008 Skrevet 28. mai 2008 Litt flisespikking på artikkelen fra min side: Det vil si at ved under optimale forhold og maks load genererer 236 Watt med varme På norsk kalles det for full belastning Nvidia har også prestert å fylle opp alle mulige minneplasser på dette kortet. Det betyr at de står fast på 1 GB minne, og kan dermed ikke levere kort med 2 GB. Det gjør de faktisk enklere enn ATI siden det er relativt enkelt å kjøpe inn brikker med mer kapasitet. Altså 16*128 MByte i stedet for 16*64 MByte. Det er vankeligere for ATI siden de hadde trengt 8*256 MByte for å få 2 GByte. 256 MB-brikker er vel ikke mulig å få tak i ennå så vidt jeg vet og når de blir det så vil de neppe klare like høy klokkehastighet som de mindre brikkene. Når du tenker deg om litt, konkluderer du nok med at 1 GB på 512-bit er mer enn nok, men for designere vil dette muligens sette en liten stopper. Jeg tenker meg om men klarer ikke å finne noen gode grunner til at 1GB på 512-bit er for lite.
Bentus Skrevet 28. mai 2008 Skrevet 28. mai 2008 Begynner å tviholde meg mer og mer til ATI igjen=) Ser nok ut som nvidia vil bare tjene penger, litt rip off for folket. Hvilken verden lever du i? Alle bedrifter er avhengig av å tjene penger. Tjene penger ja, det er no vel rip off for folket alikevell. Er ofte borti produksjon, ser at de alltid bare legger til noe litt ekstra for hver gang. Som skal bli et "nytt produkt" Som IKEA alltid gjør hvertfall:P (Vri litt på dinna du, så har vi et nytt produkt) De kunne no ha gjort mye mer ut av de nye produkta viss de villet, vær litt mer ambisiøs og se litt lengre frem enn skolisene sine. Må jo kjøpe nytt skjermkort hvert år for å få spilt noe særlig.
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå