Gå til innhold

R600 blir effektmonster


Anbefalte innlegg

Bildekvaliteten endres vel ikke noe så lenge det ikke finnes Dx10-spill, drivere osv. (Eller har det kommet noen nå?) (Ikke ustabile betaer, men ferdigutviklede drivere)

7948733[/snapback]

Eventuelt høyere AA instillinger, FP HDR+MSAA, bedre AF kvalitet..

 

Ellers har nVidia lansert DX10 drivere, men det er ingen spill ennå som støtter det.

Lenke til kommentar
Videoannonse
Annonse
Så det du sier Saivert er at mitt X1900XT 512MB burde dra Oblivion helt fint på fullt med 1280x1024?

7948614[/snapback]

Joda, men både en god cpu og litt ram kreves. AMD X2 5000+ \ Intel C2D E6400 og minst 1 gb RAM er minimum.

7948796[/snapback]

Oblivion er lite CPU begrenset med høye instillinger, selv uten AA og AF.

Lenke til kommentar

Lavere effektforbruk er vel ikke noe spesielt godt salgsargument. Det er grenser for hvor store innsparinger man får i husets energiøkonomi ved å bytte til et mere effektivt skjermkort. Tror ikke du ser mange gamere bruke penger på sånt ;)

 

Oblivion er av litt nyere dato enn Source og kans tegne noen helt enorme landskaper med mye detaljer. Det jeg har sett virker ikke dårlig laget for å si det sånn. Mulig det er mer å hente i programmering og tweaking, men utviklere prøver vel også å presse mest mulig detaljrikdom i motoren sin for å ligge litt foran konkurentene.

Lenke til kommentar

Jeg tenker ikke så enspora at jeg bare snakker om Oblivion. Godt mulig dette spillet er veldig fremtidsrettet og da tar sikte på å utnytte også neste generasjons skjermkort selv om jeg finner det litt snodig at utviklerne laget Oblivion med tanke på 8800GTX og nye ATI R600 teknologien. Helst vil de vel at spillerne skal spille med de høyeste kvalitetsinnstillingene.

Hadde utviklerne noen prototyper fra nVidia da de laget Oblivion? For det MistaPi påstår her er at man ikke kan spille Oblivion på fullt med forrige generasjon skjermkort som i mine øyne var noen monstre (nVidia 7950GX2, ATI X1900XTX) selv ved lave oppløsninger. Nå er det vel stor forskjell på nVidia 7900GT og 7950GX2 da, men allikevel tilhører de samme generasjon.

 

Leste AnandTech sin artikkel om Oblivion og GPU krav og nå har jeg lært at dette spillet faktisk er meget krevende. Men det forbauser meg. De burde da lage spill for de skjermkortene som de kan forvente folk har og ikke om et halvt års tid. Men forstår samtidig at der er en fordel at det mulighet for så høye innstillinger at du har mer og hente ut av spillet når du oppgraderer maskinvaren lang tid etter at spillet kom ut. En fin replay value om dere skjønner. Jeg har nå mer erfaring med Half-Life 2 og Doom 3 og de spillene hadde ingen verdens problemer med mitt 7800GTX kort som var i vinden på den tida selv ved alt stilt på fullt.

 

Fant også en tweaking guide for Oblivion.

Endret av saivert
Lenke til kommentar
Godt mulig dette spillet er veldig fremtidsrettet og da tar sikte på å utnytte også neste generasjons skjermkort selv om jeg finner det litt snodig at utviklerne laget Oblivion med tanke på 8800GTX og nye ATI R600 teknologien.

Bethesda har alltid laget spill som virkelig tøyer ut den Hardwaren som er på markedet når det kommer, og er da med andre ord spill man kan spille over flere generasjoner...

 

Les litt om hva Bethesda har sagt om Oblivion sine specs hvis du vil ;)

Lenke til kommentar
Godt mulig dette spillet er veldig fremtidsrettet og da tar sikte på å utnytte også neste generasjons skjermkort selv om jeg finner det litt snodig at utviklerne laget Oblivion med tanke på 8800GTX og nye ATI R600 teknologien.

Bethesda har alltid laget spill som virkelig tøyer ut den Hardwaren som er på markedet når det kommer, og er da med andre ord spill man kan spille over flere generasjoner...

 

Les litt om hva Bethesda har sagt om Oblivion sine specs hvis du vil ;)

7949673[/snapback]

 

 

Stemmer det. Bohemia Interactive gjorde det samme med Operation: Flashpoint serien... og det ser ut som at ArmA: Armed Assault blir det samme. Synes det er greit jeg egentlig, siden man ser hvor bedre nyere genersjoner kort er. Noen må jo holde teten mht. å forbedre opplevelsen/grafikken i spill... hadde jo vært kjedelig ellers. Bare se på Crysis, f.eks....

Lenke til kommentar

Jeg ramlet over en nettside "nesten ingen har hørt om". I denne sammenhengen (R600, 2800XTX) fant jeg hos DailyTech.com en link til et relativt ukjent nettsted, der de det hevdes at ATI R600 yter en del bedre enn Nvidia 8800GTX:

 

The published results are very promising with AMD’s ATI R600 beating out NVIDIA’s GeForce 8800 GTX in most benchmarks. The performance delta varies from 8% up to 42% depending on the game benchmark.

 

Hvor vidt dette stemmer, vet vi nok ikke riktig enda, men stemmer dette kan det bli interessant i mars-april... -uansett, vi må nok ta dette med en klype salt foreløpig til de mer anerkjente nettstedene begynner å ta 2800XTX i skue!

 

Her er link til test 1 og test 2 hos det "berømte, og nystartede level505.com. I test 2 nevner de bl.a driverproblemer:

 

However, you might remember from our ATI R600 Test Part 1, that we are working on the R600 side with drivers, that are not capable of much; merely they only get the card to work while complying with the certification requirements. This early stage ran us into several problems, as ATI’s driver either did not want to work at all, or we had to fight irregular and surprisingly regular (Half-Life 2: Lost Coast quit after exactly 20 seconds) system crashes.

 

Det er alltid morsomt med rykter, som skaper forventninger, hehe, selv om jeg ikke helt tror det ennå. :whistle:

Endret av bjornh
Lenke til kommentar

Jeg bar MÅTTE slenge med noen generelle opplysninger her. Antagelig er er vel dette nevnt i andre tråder på forumet, men jeg legger ved info om ATI R600 kortene:

 

 

- Navn : Shader : klokkefrekvenser : Bus vidde : Minne : Pris (US-Dollar)

 

- X2800 XTX2 : 2x 96 : 575/1000 MHz : 256 Bit : 2x 512 MB GDDR4 : 599

- X2800 XTX : 128 : 750/1100 MHz : 512 Bit : 1024 MB GDDR4 : 599

- X2800 XTX : 128 : 750/1100 MHz : 512 Bit : 512 MB GDDR4 : 549

- X2800 XT : 128 : 600/900 MHz : 512 Bit : 512 MB GDDR3 : 499

- X2800 XL : 96 : 600/900 MHz : 512 Bit : 512 MB GDDR3 : 399

- X2800 GT : 96 : 650/900 MHz : 256 Bit : 512 MB GDDR3 : 349

- X2800 GTO : 96 : 600/700 MHz : 256 Bit : 256 MB GDDR3 : 299

- X2600 XT : 64 : 650/800 MHz : 128 Bit : 256 MB GDDR3 : 199

- X2600 Pro : 64 : 550/700 MHz : 128 Bit : 256 MB GDDR3 : 149

- X2300 XT : 32 : 650/700 MHz : 128 Bit : 256 MB GDDR3 : 99

- X2300 Pro : 32 : 500/700 MHz : 128 Bit : 128/256 MB GDDR3 : 69/79

- X2300 LE : 32 : 500/400 MHz : 128 Bit : 128 MB GDDR2 : 59

 

Kilde: tweakpc.de

Lenke til kommentar

Angående det doble kortet så tror jeg det er en skrivefeil i alle tabellene som har sluppet ut til nå. Jeg tror det skal stå 2*256bit minnebuss i stedet for bare 256bit minnebuss. Det virker rett og slett usansynlig at de skal bruke en samlet minnebuss på 256bit til den ene GPUen og at de to GPUene deler på minnet gjennom en eller annen kobling mellom de. Det virker også alt for dårlig om de skal være 2*128bit minnebuss. Derfor tror jeg det skal stå 2*256bit.

Lenke til kommentar
- Navn : Shader : klokkefrekvenser : Bus vidde : Minne : Pris (US-Dollar)

 

- X2800 XTX2 : 2x 96 : 575/1000 MHz : 256 Bit : 2x 512 MB GDDR4 : 599

- X2800 XTX : 128 : 750/1100 MHz : 512 Bit : 1024 MB GDDR4 : 599

...

7954285[/snapback]

:hmm: Skal ATI lansere et dobbelt-kort ala Nvidias 7950 GX2 ?? Kan jo bli interessant...

7954787[/snapback]

I følge ryktene: ja! -ATI har vel skjønt at det er et marked for sånt. Men om det vil ha en liknende løsning som 7950GX2 vet vi nok ikke enda.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...