Gå til innhold

6800Ultra eller X800XT?


Anbefalte innlegg

Dersom du hadde lest andre poster av meg, ville du se at jeg har planer om gå til annskaffelse av et X800 XT

Bryr jeg meg?, nei. Skal du lage et poeng: I så fall et dårlig et.

 

Derfor trengst det noen som forsvarer "the darkside"

Og hvem side er det snakk om?

Så ikke kom her å kall meg en "NVIDIOT". Det er slike poster som dette som gjør at jeg føler at forumet er oversvømmt av små skolejenter.

Gratulerer og velkommen til verden, jeg føler med deg.

Du tåler tydeligvis ikke konstruktiv kritikk, og du vil ikke få min respekt før du slutter med post som dette og klarer å komme opp med noe konstruktivt selv. (anntall poster teller ikke en dritt i min bok. Heller kvalitet fremfor kvantitet.)

Har jeg sagt noe om antall poster? Svar: NEI.

 

Beklager den kvasse posten. Men ett så usakelig angrep på meg, vil få ett sakelig angrep tilbake.

Synes ikke det var så saklig jeg.

 

jeg klarte ikke å dy meg.

Ikke jeg heller.

 

Men on topic: R420 er best av de to ;)

Lenke til kommentar
Videoannonse
Annonse
Raptor,29/05/2004 : 13:59]

ATi er minst like "dirty" som nVidia med optimaliseringer i driverene!

 

niks, nvidia sitter fremdeles på tronen i det departementet. :p, husker enda tilbake til da nvidia fusket i 3d mark.

Da husker du kanskje at futuremark selv godkjennte de driverene, og gikk offentlig ut og sa at de var klar over visse optimaliseringer, men at dette ga nVidia en mer realistisk score?

Btw, ATI fusket også i 3dm03

Mener å huske det ja, nemlig at en god del hardware sider på nett, mente at nVidia hadde presset Futuremark til å komme med den uttalelsen.

 

men la oss for all del ikke gjøre dette til nok en vs topic. vi lar det ligge med at både Ati og nVidia har drevet med "juks".

Lenke til kommentar
Kjøper det som er best jeg, akkurat nå er det ATI ;)

Hvis jeg kjøper noe så kjøper jeg NY teknologi, og det er ikke R420, greit, R300 var en kjempegod arkitektur, og du kan sikkert presse mer ut av den og, men jeg gir ikke over tre tusen kroner for det! Jeg kjøper heller ikke grafikkort hver gang det kommer noe nytt. Bruker et Matrox Parhelia nå, skal ha nytt iløpet av sommeren, og det blir høsy sannsynlig et NV40 kort, grunner

 

- Støtte for SM 3.0, kommer sikkert spill som støtter dette før neste gang jeg kjøper kort

- Støtte for dual-dvi (trenger det da jeg har to LCD skjermker)

 

Det hører også med til historien at max oppløsning på en mine 19" LCD skjermer er 1280x1024, og det har NV 40 mer enn nok power til!

Lenke til kommentar

Merlin noe mer usakelig person har jeg aldri møtt på forumet, jeg ville ikke vært forbaust om du poster mest i søppel. Det du sier (spammer) her i posten er:

 

Ati er best :devil:

 

Ati vil alltid være best :devil:

 

Jeg har det beste som er Ati :devil:

 

En annen ting å tenke på er Geforce 4 serien som var en sinnsyk suksess, og det er de samme som står bak 6 serien!

Lenke til kommentar

Denne tråden har jo utviklet seg til en ren ATI vs nVidia masssakre!

 

Min mening: Jeg har lest alle mulige tester jeg kunne finne av NV40 vs R420 og har kommet ut med at R420 (X800XT PE) totalt har kommet best ut.

Derfor kjøper jeg det.

Jeg lever nå'et og driter i hva slags ytelse kortene får etter nye drivere som kommer en eller annen gang.

Lenke til kommentar

Merlin tror ikke du akkurat kommer til å få så mye kredibilitet. Du er en fanatisk person, som for en eller annen grund fått dilla på en skjermkort produsent.

 

Ut i fra postene skulle man tro at Nvidia har massakrert familien din, for så å sende deg til sibir i noen år. Mens ATI er mesias.

 

Ut i fra testingen sålangt er det ikke blitt kåret en overlegen vinner.

Lenke til kommentar
Neppe så mye, men det vil nok bli endel forbedringer, siden NV40 er en nye arkitektur, det er ikke R420.

Det betyr ikke at NV40 er overlegent R420. nVidia trengte sårt en helt ny arkitektur, det gjorde ikke ATi. Men vi kan vente oss en endel forbedringer også med r420.

 

As for the X800 series, it's getting a lot of its upcoming performance benefits from our work in optimizing the memory controller. We've got a huge amount of flexibility in how it can be programmed and used, and we've just scratched the surface (the state space is huge, and it will take some time to come up with optimal cases). People can expect significant (>>10%) performance increases, esp for AA.

 

Når spill og programmer kommer med støtte for Shadder Model 3.0 vil det bli enda mer, da må ATi kortet kjøre mange flere "passes" for å eksekvere en shadder instruksjon.

Mange flere passes? Dagens DX9 spill bruker ganske få PS instruksjoner, rundt 30 hvis jeg ikke husker feil, X800 har støtte for 1536 instruksjoner per pass (fra R300 64+32), så det er mye og gå på før man trenger å kjøre flere passes. Det er heller ikke realistisk å kjøre så mange instruksjoner på store deler av bildet med akseptabel framrate.

 

På e3 ble farcry vist kjørende med dx9c path (PS 3.0) på et 6800U kort. Og det så vist evig mye råere ut enn det gjør på x800 korta.

Har du sett den samme demostrasjonen på X800?

 

Btw, dersom dere ser på bildesammenlignigene av pirates of the carribean, så er det tydelig kvalitets forskjell der. På bakken/sanden i nedre del av bildet. Er det en pluttselig over gang fra skarp til blury på ati kortet, mens på nvidia fader det ut....

Ser ut som X800 kjører ren bilinear her, hva grunnen til det er blir bare spekulering.

 

Var det ikke akkuratt dette det var snakk om når det ble diskutert ati IQ cheating for litt siden?

Nope.

 

ATi har jo nettopp også kommet med en tvilsom optimalisering med hensyn på AF i driverene sine, og det værste var at de sendte ut mail til alle som testa kortet demmes med instruksjoner på å slå av nVidia sine optimaliseringer, og de har fjærnet mulighetene til å slå av sine egne!

nVidia sin "trilinear optimalisering" er en statisk metode som gir dårligere filtering for bedre ytelse. ATi sin metode er adaptive som ikke gir synlig dårligere kvalitet.

 

Da husker du kanskje at futuremark selv godkjennte de driverene, og gikk offentlig ut og sa at de var klar over visse optimaliseringer, men at dette ga nVidia en mer realistisk score?

Dette var vel før Futuremark begynte å godkjenne drivere? Endret ikke Futuremark kun utsagnet om juks til optimalisering (grovt sett)? Futuremark har ihvertfall i senere tid ikke godkjent slike optimaliseringer i 3DMark03. Det er forsatt kun FW 52.16 som er godkjent av Futuremark for GeForce3, GeForce4Ti og GeForceFX.

60.72 driveren er kun godkjent for GF 6800.

 

Btw, ATI fusket også i 3dm03

Det er også et spørsmål om graden av juks IMO.

Lenke til kommentar

Kan vel nevne at da NV40 ble kjørt med Sm3 støtte i Far cry så fikk personen som testet det en følelse av at Fps lå på 20 tallet.

 

http://www.nvnews.net/vbulletin/showthread.php?t=28772

 

Af was set at 1.. resolution i believe was 1280x1024. If I had to take a guess at the fps, I would say 25 average. I would assume it is kinda low because of the AA, since Farcry seems to take a fairly large hit when AA is used... the only way i knew it was 4xaa is because that is what it was set at in the game options.

 

All the game options were at very high, and the water at ultra high. The shadow casted from the trees looked really good.. they moved as the trees moved, the whole environment looked better.

 

There was a buggy also present, I took a quick look at the buggy, and it seems to look the same as the buggy on my system. The only real difference I could notice were the shadows, and the gravel/sand.

Endret av Robin B
Lenke til kommentar
Raptor' date='29/05/2004 : 15:43']
Kjøper det som er best jeg, akkurat nå er det ATI ;)

Hvis jeg kjøper noe så kjøper jeg NY teknologi, og det er ikke R420, greit, R300 var en kjempegod arkitektur, og du kan sikkert presse mer ut av den og, men jeg gir ikke over tre tusen kroner for det! Jeg kjøper heller ikke grafikkort hver gang det kommer noe nytt. Bruker et Matrox Parhelia nå, skal ha nytt iløpet av sommeren, og det blir høsy sannsynlig et NV40 kort, grunner

 

- Støtte for SM 3.0, kommer sikkert spill som støtter dette før neste gang jeg kjøper kort

- Støtte for dual-dvi (trenger det da jeg har to LCD skjermker)

 

Det hører også med til historien at max oppløsning på en mine 19" LCD skjermer er 1280x1024, og det har NV 40 mer enn nok power til!

veldig bra poeng der. helt enig :w00t:

Lenke til kommentar

Det som skremmer meg litt er hvordan det fokuseres på poengresultater i 3dmark når dere sammenligner kort. Om et kort får 200 poeng mer enn det andre er det likegyldig for meg. For at jeg skal kunne ta et standpunkt til hvilket kort jeg synes er best, må jeg først prøve begge kortene i praksis. I mine øyne er det det kortet som gir meg den beste spillopplevelsen som er vinneren, og det er ikke nødvendigvis det kortet som gir best score i 3dmark.

 

Dette teller for meg:

1) Fargedybde

2) Minst mulig dropp i framerate

3) Smoothness og detaljnivå i bildet

4) Driverkompabilitet

( 5) Varmeutvikling og hvor mye plass kortet tar )

 

Det beste verktøyet for å fange dette er øynene som ser.

 

Edit: Rekkefølgen over er tilfeldig

Endret av alfern
Lenke til kommentar
Kan vel nevne at da NV40 ble kjørt med Sm3 støtte i Far cry så fikk personen som testet det en følelse av at Fps lå på 20 tallet.

 

http://www.nvnews.net/vbulletin/showthread.php?t=28772

 

Af was set at 1.. resolution i believe was 1280x1024. If I had to take a guess at the fps, I would say 25 average. I would assume it is kinda low because of the AA, since Farcry seems to take a fairly large hit when AA is used... the only way i knew it was 4xaa is because that is what it was set at in the game options.

 

All the game options were at very high, and the water at ultra high. The shadow casted from the trees looked really good.. they moved as the trees moved, the whole environment looked better.

 

There was a buggy also present, I took a quick look at the buggy, and it seems to look the same as the buggy on my system. The only real difference I could notice were the shadows, and the gravel/sand.

 

 

 

Etter de testene jeg har lest av X800XT PE klarer det og kjøre Far Cry med 1600/1200 medium AF (4X) og full AA med average fps på 35,7.

Hvis da spillet lå på rundt 25 med 1280/1024 med 4x af må jeg si at 6800 ultra henger litt etter i far cry.

Dette er bare noe jeg slenger ut i lufta og ikke stift meg til veggen for det.... ;)

 

robin B, den linken din til det forumet.

Der sier jo alle at det ser så mye bedre ut?

PS 3.0 gir jo ikke bedre bildekvalitet? eller?

jeg trodde det bare ga bedre ytelse? (noe nVidia sier? om det stemmer aner jeg ikke)

 

Folka der påstår også at 6800ultra banker X800XT PE i 3dmark03 dx9 testene!

etter hva jeg har forstått er det bare test 4-nature som er dx9?

Isåfall knuser jo ATI nVidia kortene i test 4. mens nVidia slår ati i alle de andre testene. Likevel får XT PE og ultra like høye scorer.

Endret av TDK
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...