Gå til innhold

Mer om GeForce 8800 Ultra


Anbefalte innlegg

Latterlig prisnivå som vanlig på det aller råeste, men dette var extra latterlig synes jeg.  Vil nok falle et hakk i pris ganske raskt etter lansering, men uansett er dette for lite extra ytelse til å forsvare 7-800USD. 

 

Det at vi enda ikke har fått sett DX10-spill i aksjon gjør at det blir enda lettere å utsette kjøp av high-end skjermkort.  Noen som forresten vet når det første DX10-spillet kommer?

8521263[/snapback]

 

Helt enig! Hvert fall med tanke på at det er et klokket GTx kort..

Ikke noe mer RAM eller noe :roll:

 

Derfor kunne vi likså greit kalt disse fabrikkoverklokkede kortene fra XFX osv.. For Ultra fra før av.. Koster mindre, og jeg blir ikke overrasket om de yter hakket bedre attpåtil..

8521292[/snapback]

 

Den nye mellomklassen har jo større grad av video-akselerasjon enn toppmodellene, mulig denne her også har disse funksjonene?

 

AtW

Lenke til kommentar
Videoannonse
Annonse
Noe jeg strengt tatt syntes nVidia burde ha gjort.. Var å putte på litt ekstra minne.. La oss si 850 eller noe da.. Så er det hvert fall litt forskjell på GTx og Ultra..

8521031[/snapback]

Det er jo litt forskjell på de. ca ~10% ytelse. Å legge til litt minne tror jeg ville vært en dårlig løsning. Da måtte de designet om selve GPU-kjernen og laget en egen serie med brikker kun for ultra-utgaven. Dvs. minnebrikker kommer bare i binære størrelser som 16, 32, 64, 128 MB osv. Det vil si at de måtte koblet til f.eks et par brikker til. Det ville krevet flere pinner på GPUen til minnebussen. F.eks økt minnebussen fra 384bit til 448bit. Det ville selvsagt også medført at de måtte designet kretskortet på nytt. Altså store kostnader. For en slik mellomoppgradering vil jeg si at det eneste fornuftige ville vært å enten beholde mengden minne eller doble det ved å gå ett hakk opp i størrelsen på minnebrikkene. At de valgte å beholde mengden minne, men heller klokke det opp 20% ser jeg på som en grei løsning.

 

vell det gjør iallefall godt i sjelen min nå som jeg akkuratt fikk meg en 8800GTX og hvor lenge var den bra?! 2 JÆVLA DAGER! så kom det en ultra verisjon som skal være MYE bedre fan... FAEN! greit at teknologien går i utvikling men hallo, GTXen min! den var verdens beste i bare 2 dager siden jeg fikk den! jeg går og raner en bank snart og kjøper meg en ULTRA snart. Dette var sjokk... må grine... Kødder ikke... :(

8521502[/snapback]

Hehe.. Du har bare deg selv å takke for at du ikke fikk være "verdensmesteren" i gata i mer enn 2 dager. Hadde du fulgt ørlite med så ville du vist at Ultra-modellen var på trappene. Når det er sagt så var det ikke akkurat noe stort tap. Ultra yter bare ~10% bedre, men koster hele ~40% mer. Overklokker du litt så er du "verdensmester" igjen.

Lenke til kommentar
vell det gjør iallefall godt i sjelen min nå som jeg akkuratt fikk meg en 8800GTX og hvor lenge var den bra?! 2 JÆVLA DAGER! så kom det en ultra verisjon som skal være MYE bedre fan... FAEN! greit at teknologien går i utvikling men hallo, GTXen min! den var verdens beste i bare 2 dager siden jeg fikk den! jeg går og raner en bank snart og kjøper meg en ULTRA snart. Dette var sjokk... må grine... Kødder ikke... :(

8521502[/snapback]

 

Nåååja... "mye" bedre? det er snakk om 8-9% bedre i gjennomsnitt ca. Knapt merkbart. Dessuten så er jeg rimelig sikkert på at om du klokker både en GTX og en utra til maks, så vil begge to toppe ut på omtrent det samme.

 

 

8522096[/snapback]

 

Dette er et lite utdrag ifra Anandtech

 

Beyond cooling, NVIDIA has altered the G80 silicon. Though they could not go into the specifics, NVIDIA indicated that layout has been changed to allow for higher clocks. They have also enhanced the 90nm process they are using to fab the chips. Adjustments targeted at improving clock speed and reducing power (which can sometimes work against each other) were made. We certainly wish NVIDIA could have gone into more detail on this topic, but we are left to wonder exactly what is different with the new revision of G80.

 

As far as functionality is concerned, no features have changed between the 8800 GTX and the 8800 Ultra. What we have, for all intents and purposes, is an overclocked 8800 GTX. Here's a look at the card:

 

While we don't normally look at overclocking with reference hardware, NVIDIA suggested that there is much more headroom available in the 8800 Ultra than on the GTX. We decided to put the card to the test, but we will have to wait until we get our hands on retail boards to see what end users can realistically expect.

 

Using nTune, we were able to run completely stable at 684MHz. This is faster than any of our 8800 GTX hardware has been able to reach. Shader clock increases with core clock when set under nTune. The hardware is capable of independent clocks, but currently NVIDIA doesn't allow users to set the clocks independently without the use of a BIOS tweaking utility.

 

We used RivaTuner to check out where our shader clock landed when setting core clock speed in nTune. With a core clock of 684MHz, we saw 1674MHz on the shader. Pushing nTune up to 690 still gave us a core clock of 684MHz but with a shader clock of 1728MHz. The next core clock speed available is 702MHz which also pairs with 1728MHz on the shader. We could run some tests at these higher speeds, but our reference board wasn't able to handle the heat and locked up without completing our stress test.

 

It is possible we could see some hardware vendors release 8800 Ultra parts with over 100MHz higher core clocks than stock 8800 GTX parts, which could start to get interesting at the $700+ price range. It does seem that the revised G80 silicon may be able to hit 700+ MHz core clocks with 1.73GHz shader clocks with advanced (read: even more expensive) cooling solutions. That is, if our reference board is actually a good indication of retail parts. As we mentioned, we will have to wait and see.

 

Tolker jeg dette rett, er det iallefall en fordel over GTX, iogmed at Ultra klokker lengre enn GTX.

Lenke til kommentar

Hmmm...

 

Man kan spørre seg selv om behovet med 8800 Ultra. Du får overklokka 8800GTX-kort til en billigere penge.

 

Sånn hardware-messig så er 8800 Ultra basert på A03 revisjonen av G80 (de andre kortene er A02 foreløpig), A03 er optimalisert, så nVidia kan kjøre høyere klokkefrekvens, strømforbruket er lavere, og yields er bedre.

 

Akuratt det med strømforbruket er en positiv ting (ett 8800Ultra bruker faktisk litt mindre strøm enn et 8800GTX selv om det er klokket høyere).

 

Min personlige mening her er at kortet er waste. Akkuratt som AMD sine FX-prosessorer, og Intel Extreme Edition... Den ekstra ytelsen de gir over GTX er ikke verdt den ekstra prisøkningen. GTX-kortene kan også klokkes...

 

Billigeste GTX-kort nå ligger vel på rundt 4000 kroner... Ultra ligger vel på rundt 6500 (synker forhåpentligvis litt om noen uker)

Lenke til kommentar

Interessant tabell det der Håkki. Ytelseøkningen fra GTX til Ultra er som vi kom fram til tidligere i tråden på rundt 10%. Men det som var nytt for meg her var at Vista gir i gjennomsnitt 7% dårligere ytelse enn XP.

 

Uten at jeg har fått pløyd skikkelig gjennom tallene ennå så ser det ut til at både GTX og Ultra yter svært bra på 1600x1200 i samtlige spill. Men det ser også ut til at denne generasjonen kort ikke er helt klare for en god spillopplevelse i 2560x1600. 1920x1200 ser ut til å være en godt spillbar oppløsning på disse kortene.

Lenke til kommentar

Fascinert over at folk klager over prisen på disse kortene, og skjermkort generelt. Jeg kjøpte nettopp et til serveren min som kostet 250,-. Det er mindre enn hva billigste skjermkort kostet for 2-3 år siden. (Og sannsynligvis bedre).

 

Faktum er at om man velger å legge seg rundt 2k (greit, jeg har ikke fulgt med så mye i det siste at jeg vet akkurat hvor sweet-spot ligger, men tror det ligger deromkring) så får man et veldig heftig skjermkort. Jeg har et gammelt 7800 GTX og en Dell 24". Kan kjøre de fleste spillene jeg spiller i native oppløsning (1920x1200), men må i enkelte skru noe ned på kvaliteten. Og nå får man jo 8800GTS (320MB) til ca. 2.500,- som jo er sinnsykt bra ytelse for pengene.

 

Og for de som absolutt skal ha det beste så syns jeg det er lov å kjøre på med høy pris. Det fins faktisk ikke noe bedre tilgjengelig i dag. Som mange har sagt: Hadde ATI hatt et kort som var bedre, så hadde nok prisen vært lavere. (Selvsagt avhengig av prisen på ATI sitt kort.)

 

Hadde jeg hatt flust med penger (noe jeg dessverre ikke har) hadde jeg selvsagt kjøpt to av dette kortet i min neste pc. Det hadde vært uaktuelt å kjøpe GTX-varianten for å klokke selv. Det er for entusiastene på stramt budsjett, eller de som av andre grunner syns det er gøy å klokke. Jeg syns det er morsommere å bruke utstyret enn å se hvor høyt det kan klokke :)

Lenke til kommentar
Interessant tabell det der Håkki. Ytelseøkningen fra GTX til Ultra er som vi kom fram til tidligere i tråden på rundt 10%. Men det som var nytt for meg her var at Vista gir i gjennomsnitt 7% dårligere ytelse enn XP.

 

Uten at jeg har fått pløyd skikkelig gjennom tallene ennå så ser det ut til at både GTX og Ultra yter svært bra på 1600x1200 i samtlige spill. Men det ser også ut til at denne generasjonen kort ikke er helt klare for en god spillopplevelse i 2560x1600. 1920x1200 ser ut til å være en godt spillbar oppløsning på disse kortene.

8525272[/snapback]

Jeg trodde det var løst ved hjelp av bedre drivere fra Nvidia.

Lenke til kommentar
Jeg trodde det var løst ved hjelp av bedre drivere fra Nvidia.

8525738[/snapback]

Jeg finner ikke noe i testen om driverversjon eller testoppsett forøvrig (!), men regner med de har brukt ganske nye drivere på et så nytt kort. Er det veldig nylig nvidia skal ha optimalisert driverene for vista med så mye som 7% i gjennomsnitt? Har du en kilde/test på det?

 

Redigert: Det står ikke en gang om de har brukt 32 eller 64bit-versjonene av XP og Vista. Elendig å ikke opplyse om så essensielle ting.

Endret av Simen1
Lenke til kommentar

Jeg så en en eller annen plass for 5-6 uker siden at fps-ulikheten mellom XP og Vista skulle være løst. I samme artikkel stod det at Aero grensesnittet ikke medførte ytelsestap i spill, siden det ble slått av ved 3D applikasjoner.

 

Jeg skal lete littegrann, og se om jeg finner den igjen.

Lenke til kommentar
Raptor,03/05-2007 : 12:58]
Jeg så en en eller annen plass for 5-6 uker siden at fps-ulikheten mellom XP og Vista skulle være løst.

8526914[/snapback]

Det vil aldri bli helt løst hverken for ATi eller nVidia

8526989[/snapback]

Men man vil vel få bedre FPS på DX10 i Vista på spill enn om de ville vært DX9 på WinXP? Pga forbedringer i DX10?

 

Det blir interresant å teste de første spillene som kommer i både DX9 og DX10.

Endret av Theo343
Lenke til kommentar

Topp-kort har alltid kostet, og vil alltid koste! Nvidia er på toppen for øyeblikket, og bruker dette i Ultra kortet. Har sett det tidligere, for mange år siden, og det gjentar seg nå. Ville gjort nøyaktig det samme som nvidia gjør nå, hvis jeg var i den posisjonen at jeg visste at jeg hadde det beste som fantes på markedet for øyeblikket.

Endret av Vizla
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...