Gå til innhold

Geforce GTX 280 testet


Anbefalte innlegg

Dette er et BS test! Har ingenting med virkeligheten å gjøre.

GTX280 er 2 x 9800 i en chip. Da MÅ den testes VS 9800 GX2.

Og gjett hva - GTX280 er saktere enn 9800 GX2 OC!

 

Les mer om dette i min blogg

 

Hmm, godt poeng egentlig.

Om det er kun 2 kjerner smeltet inn på en brikke istedenfor 2 på et kort så forstår jeg godt at det ikke er så utrolig stor forskjell, selvsagt noen tester og spill vil jo yte optimalt med et slikt oppsett så det er trolig en bedre løsning en SLi varianter.

 

Ja helt enig! Det som er virkelig oppsiktsvekkende er at det yter dårligere i Crysis enn 9800 GX2

Ingen ting er oppsiktsvekkende så lenge dette ikke er en offisiell lansering. Vi har allerede sett Nvidia sine offisielle tall og jeg velger å stole mer på disse enn se&hør - ihvertafll inntil det motsatte er bevist med noen reviews av offisielle drivere.

Lenke til kommentar
Videoannonse
Annonse

Dette var jo med 177.26 driverne, vi har jo allerede sett mer oppdaterte tester med 177.34 drivere som ga tydlig bedre ytelse. Men jeg husker jeg ble litt forrviret når jeg sammenlignet resultatene så jeg personlig tar dette med en klype salt intil vi får se skikkelige tester.

 

Om kanskje de 2t og 30min da

Endret av AllColor
Lenke til kommentar
Dette er et BS test! Har ingenting med virkeligheten å gjøre.

GTX280 er 2 x 9800 i en chip. Da MÅ den testes VS 9800 GX2.

Og gjett hva - GTX280 er saktere enn 9800 GX2 OC!

Tullball, hva har du for noen informasjon som kan underbygge at det er snakk om to kjerner i chippen?

 

Uansett om det stemmer eller ei så er det ikke så relevandt.

Når frekvensen, shaderene, minnet og PCB'en er forskjellig så gjør det neimen ikke mye.

Quad-core'ene til Intel har to GPU-chips på prosessoren. Det gir ikke noe dårligere ytelse eller funksjonabilitet mot fire kjerner i en chip. Med andre ord er det HELT urellevandt. Det er også 512bit minnebus, der G92 KUN støttet opptill 256bit.

 

Uansett så krever det ikke SLI og skal ikke sammenlignes direkte opp ot 9800GX2 som yter en del dårligere i spill med dårligere SLI-støtte, og har mindre stabil FPS. (jeg snakker fra erfaring)

 

 

1. Hvorfor er man intressert i medium grafikk-ytelse? Er jo High/Very High som er intressangt.

2. Det er på de gamle BETA driverene. De nye 177.34 ryktes å gi oppimot en 50% bedre ytelse i Crysis. (bare se på andre "tester")

 

Dude erm... :) heh

 

1. Jeg har ikke testet kortet. Men syns 2560x1600 er ikke noe "medium".

2. Kan godt hende at 177.34 er bedre - det har ingenting med saken å gjøre. Poenget er at GTX 280 testet VS 9800 GX2 og den TAPTE! Det er et DÅRLIGERE kort enn GTX 280.

3. High-end kort som du selv sikter til er for high-end spill. Og spill uten SLI støtte klarer seg fint med 9800 GTX - om du får 100 eller 200 FPS har det ingenting å si.

4. Det er nettopp i krevende spill som f.eks. Crysis og i tester som 3dmark at man kan se hva kortet EGENTLIG klarer.

5. "Quad-core'ene til Intel har to GPU-chips på prosessoren." jeg er ganske sikker på at CPU ikke har noe GPU :)

Lenke til kommentar
Dette er et BS test! Har ingenting med virkeligheten å gjøre.

GTX280 er 2 x 9800 i en chip. Da MÅ den testes VS 9800 GX2.

Faktisk er det du som er full av BS!

 

Det du sier stemmer overhodet ikke. Faktisk helt på jordet.

 

"Apparently preliminary testing did not show any jaw-dropping results. The NVIDIA GeForce GTX 280 can be considered as somewhat of a 're-work' of the GeForce 9800 GX2 into a single core package with faster processing capability and more bandwidth." - VR-Zone.

 

Det har vært lenge kjent at GTX280 er 9800 GX2 på en chip.

 

Og det er oppsiktsvekkende at GTX280 ikke gir noe bedre ytelse i Crysis og er på lik linje med 9800 GX2 i Vantage. nVidia og "kjøpte tester" der kort sammenlignes med 9800 GTX er 101% BS.

 

* Pris er høyre enn 9800 GX2

* Med 250W på load blir det vanskelig å få mer en dual SLI

* 9800 GX2 går ned i pris og er mye bedre alternativ til GTX280 - dersom man skal spille Crysis.

Endret av GCardinal
Lenke til kommentar
Hva med driveren, jobber de med en ny tilpasset kortet eller er den alleredet sluppet?. Noen som har info om dette..

Veldig mye som skjer i driveren. I første omgang er det fokusert på stabilitet.

 

Ytelseoptimaliseringer vil komme fortløpende. Det første store driveroppdateringen kommer medio juli, og da med en PhysX aktivert driver som inneholder det CUDA baserte API'et fra AGEIA med PhysX.

Lenke til kommentar
Det har vært lenge kjent at GTX280 er 9800 GX2 på en chip.

I din verden da eller?

 

Nå har ikke G200 like mange shadere som 2x G92, og det er også gjort ganske mye annerledes i brikken som jeg ikke kan fortelle om pga. NDA. Minnekontrolleren er blandt annet helt ny.

Lenke til kommentar
Det har vært lenge kjent at GTX280 er 9800 GX2 på en chip.

 

Og det er oppsiktsvekkende at GTX280 ikke gir noe bedre ytelse i Crysis og er på lik linje med 9800 GX2 i Vantage. nVidia og "kjøpte tester" der kort sammenlignes med 9800 GTX er 101% BS.

 

* Pris er høyre enn 9800 GX2

* Med 250W på load blir det vanskelig å få mer en dual SLI

* 9800 GX2 går ned i pris og er mye bedre alternativ til GTX280 - dersom man skal spille Crysis.

Men hvordan går det da med spill som har dårlig SLI-støtte? Og ytelse i Crysis er somkjent noe man kan tørke seg bak med, siden spillet er noe av det kjedligste som finnes...

Lenke til kommentar

1. Hva oppløsningen er har da lite å si for grafikken.. Medium grafikk er medium grafikk. Du får ikke noe bedre ved høyere oppløsning. Vi vil se tester gjort i High og Very High, SAMT i høye oppløsninger. Forskjellen ligger i at forskjellige deler av GPUen blir brukt mer/mindre ved høyere grafikk. Shaderene går på "tomgang", og de lave teksturene gjør at den ekstra minnebåndbredden ikek kommer til nytte.

 

2. Jo det har ALT med saken å gjøre! At 9800GX2 som kjører på en høyst optimalisert driver blir sammenlignet med GTX 280 som kjører på en tidlig BETA/AlFA driver er det som er borti natta. Andre "tester " viser at GTX 280 slår 9800GX2 med nye drivere så det dette som er intressangt, da det er disse driverene brukerene vil bruke...

 

3.Age of Conan er ikek akkurat kjent for å kjøre i 100-200 FPS...

Uansett, jeg har ikke nevnt noe om "inge SLI-støtte. Jeg snakker om dårligere SLI-støtte. Det er jo spesielt helt ferske spill som sliter med SLI-Støtten. (les Crysis den første tiden) + andre titler. Poenget er at ytelsen varierer.

 

4. Ja....

 

5. Venter fortsatt i spenning på noen håndfaste kilder om din GPU oppbygning... Poenget mitt er at det blir svært feilaktig å si at det akkurat blir som 2 x 9800 når spesifikasjonene sier noe helt annet, og minnet, shaderene og det meste er forandret. (for da sitter du jo ikke lengre med 2 9800 når alt er forandret?!)

Endret av andrull
Lenke til kommentar

<Flame shield on>

 

Personlig synnes jeg det er modent å tørre å gå ut med informasjon som går litt negativt mot Nvidia på lanseringsdagen, men jeg anbefaler alle til å ta det rolig å ikke la seg rive med bevæpnet med flammekastere og adressere postene logisk.

 

Må dog sies at det stemmer sannsynligvis at GTX 280 er en sammensmelting av 2x 9800 brikker, dog med en del optimaliseringer som gjør at den ikke er direkte 2x9800 kjerner men 2x3/4 9800 kjerner (regner med cacheen er delt og andre optimaliseringer I og med begge kjernene ikke trenger å ha dobbelt opp med alt).

Lenke til kommentar
Det har vært lenge kjent at GTX280 er 9800 GX2 på en chip.

I din verden da eller?

 

Nå har ikke G200 like mange shadere som 2x G92, og det er også gjort ganske mye annerledes i brikken som jeg ikke kan fortelle om pga. NDA. Minnekontrolleren er blandt annet helt ny.

 

klart at det er annerledes. Men hvor er resultatet? Bedre ytelse i spill som har over 100 FPS fra før av? Hvor er ytelse i 3dmark, crysis? Det at kortet har fra -20% til +5% i forhold til 9800 GX2 - er så gammelt som det kan bli. Spill som kommer vil nok kreve minst like mye som Crysis og Vantage gjør i dag.

 

For at skjermkort skal være mer eller mindre ettertraktet er det forventet ytelses økning på rundt 20% - ikke nedgang.

 

Men klart ryr nVidia på falske tester og skiller alt og alltid på drivere så selger de godt. Når jeg kjøper et kort vil jeg spille Crysis på maks - og det idag. Ikke om ett år.

Lenke til kommentar

Hvorfor skal man så absolutt si at det er 9800 chip? Om man velger å kalle G92 for en uhyre oppdatert Geforce 3 chip, så sier det vel heller ingenting (uten det faktuum at folk tror at det faktisk har noe å si) For faktum er at kjernen har gått gjennom store forbedringer, samt andre deler av kortet og er da altså snakk om et helt nytt kort.

 

Men klart ryr nVidia på falske tester og skiller alt og alltid på drivere så selger de godt. Når jeg kjøper et kort vil jeg spille Crysis på maks - og det idag. Ikke om ett år.

Men "DIN" test er selvfølgelig den som er korrekt?

Endret av andrull
Lenke til kommentar
The Inquirer har allerede nå fått tak i et eksemplar av kortet, og publiserer i kjent stil resultatene før lanseringen er offisiell.

 

Bare jeg som ikke ser på det som troverdig? :p

 

Jeg ser faktisk på det som veldig troverdig, fordi de siste ukene har theInq skrevet en haug med regelrett "dritt" om NVidia.

Lenke til kommentar
Hva med driveren, jobber de med en ny tilpasset kortet eller er den alleredet sluppet?. Noen som har info om dette..

Veldig mye som skjer i driveren. I første omgang er det fokusert på stabilitet.

 

Ytelseoptimaliseringer vil komme fortløpende. Det første store driveroppdateringen kommer medio juli, og da med en PhysX aktivert driver som inneholder det CUDA baserte API'et fra AGEIA med PhysX.

 

CUDA er allerede i 177.26, aner du om det er aktivert?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...