Gå til innhold

Første 6800 Benchmarks?


Anbefalte innlegg

Videoannonse
Annonse
Skjekk dettedette Bildet er zoomet inn 200 ganger for å vise hvor små forskjellene faktisk er.

Det du sier om 200x forstørrelse er bare bull. 200x forstørrelse betyr at hver pixel blåses opp til 200 pixler i bredden og 200 pixler i høyden. Det er klinkende klart at det ikke er gjort i det bildet du linker og utrolig poengløst å gjøre.

Jeg er enig med deg at det ikke ser ut som om bildene er forstørret så mye som 200x, men jeg vil likevel gjerne få korrigere deg en smule:

 

Å blåse en enkelt piksel opp til 200x200 piksler blir en forstørrelse på 40000x - ikke 200x. Man må regne flatemål her, ikke strekning, og en forstørrelse på 200x vil da si å blåse en piksel opp til ca 14x14 piksler (litt til, men sånn ca). Men også det virker litt drøyt. Tror hvemdetnåvar som ymtet noe om 200% kan være nærmere sannheten.

 

EDIT: Skirveleif.

Endret av Aetius
Lenke til kommentar

HUff da... Leser bra mye tull her inne. Virker som det er en gjeng med ATI-fanboys her (ikke alle). Klarer dere ikke, eller vil dere ikke skjønne at 6800 Ultra gruser både 9800xt og 5950??? Selfølgelig er det liten eller ingen forskjell på små tullette oppløsninger, men hvem bryr seg om det? Det som testene viser, er ta på oppløsninger som 1600*1280 så er 6800 omtrent dobbelt så bra som de kortene vi har ute i dag. De kjører faktisk høyere FPS med bedre bilde på 1600*1280 enn hva 9800xt klarer 1280*1024.

 

så en ting skal vi ha klart for oss:

 

6800 GRUSER 9800xt!

Lenke til kommentar
HUff da... Leser bra mye tull her inne. Virker som det er en gjeng med ATI-fanboys her (ikke alle).

Ja, det er for mange fanboys/fanATIcs her inne. Jeg skal innrømme at jeg liker nVidia bedre enn ATI, men ikke nok til at jeg automatisk kjøper nVidia kort. I fjor kjøpte jeg f.eks. et 9800 PRO fordi nVidia ikke hadde et godt nok kort på markedet. Jeg er forsåvidt fornøyd med dette kortet, men det gleder meg stort at nVidia nå EIER ATI :)

 

Vi får se hva ATI responderer med ..... blir ytelsen omtrentlig lik er det ikke tvil om at et 6800U sitter i maskinen min om ikke lenge.

Lenke til kommentar

Tror mange her (ikke han rett over) ikke har skjønt at det er CPU som begrenser i 1024x768, ikke skjærmkortet...

 

 

Toms hardware guide sine tester viser at 6800 Ultra er fra 2-3 GANGER raskere en 9800xt, og 5950 ultra i de aller fleste tester når du kommer over 1024x768..

 

Slår du på Anti aliasing, og antistropisk filtering bilr forskjellene enda større...

 

Folkens.. dette kortet utgjør en mye større ytelses hopp en det Geforce gjorde når den erstatta tnt2\voodoo2 .....

 

det er SYKT raskt...

Lenke til kommentar
HUff da... Leser bra mye tull her inne. Virker som det er en gjeng med ATI-fanboys her (ikke alle). Klarer dere ikke, eller vil dere ikke skjønne at 6800 Ultra gruser både 9800xt og 5950???

Hvem har sagt noe sånt? Noen som har sagt at "Nei, Ati vinner jo over 6800" ? Nei.

Jeg tror de fleste skjønner tegninga.

 

Jeg synes 6800 virker litt imponerende, men jeg mistenker juks og fanteri når jeg ser på Farcry screenshots av bakken og greier. Så smørjete og pikselert bakke da. Hadde Ati skrudd ned kvaliteten til det som 6800 har nå i Farcry så hadde de nok ligget (lagt, lugget??) nærmere hverandre hva fps angår, men 6800 hadde nok vært litt bedre.

 

Jeg stiller meg iallefall ekstremt skeptisk til alle tullinger som sier "vent til driverene tweakes og fikses du!!!", for det er akkurat det samme de samme fanatikerene sa når fx fadese-serien kom.

 

Blir sååå spennende å se hva Ati kommer med, for nå må de virkelig levere etter at Nvidia var først ute med et såpass kritikerrost kort.

Lenke til kommentar
Jeg har en A64 som kjører på 2 ghz. Er det vits å kjøpe 6800 ultra med denne prosessoren?

Eller er ikke prosessoren kraftig nok til at kortet skal yte noe særlig?

Tenker da på oppløninger som 1600x1200.

Eller er det ingen som vet enda?

Javisst er den bra nok. Dvs. Du får sikkert omentrent samme hastigheter i spill som med en Pentium2 3,2GHz (altså slik som testen til THG og sikkert flere)

 

Det eneste CPU'en begrenser er på de laveste oppløsningene. (1024x768 og lavere) Da begrenser man kanskje FPS til å være 300 i stedet for 400 i noen spill. Og hvem er det vel som ikke synes 300FPS er bra nok? Og hvem er det vel som gidder å kjøre med så lav oppløsning på et sånnt kort? (De som har råd til 6800U har sikkert råd til en skjerm som går fint med 1600x1200 også) På 1600x1200 så er skjermkortet uansett flaskehalsen. Dvs. at siden CPU ikke er flaskehalsen i denne oppløsningen så vil det ikke gjøre noe utslag om den er litt tregere. (Selv en Xp2500+ går sikkert omentrent like bra på denne oppløsningen)

Lenke til kommentar
Skjekk dettedette Bildet er zoomet inn 200 ganger for å vise hvor små forskjellene faktisk er.

Det du sier om 200x forstørrelse er bare bull. 200x forstørrelse betyr at hver pixel blåses opp til 200 pixler i bredden og 200 pixler i høyden. Det er klinkende klart at det ikke er gjort i det bildet du linker og utrolig poengløst å gjøre.

Jeg er enig med deg at det ikke ser ut som om bildene er forstørret så mye som 200x, men jeg vil likevel gjerne få korrigere deg en smule:

 

Å blåse en enkelt piksel opp til 200x200 piksler blir en forstørrelse på 40000x - ikke 200x. Man må regne flatemål her, ikke strekning, og en forstørrelse på 200x vil da si å blåse en piksel opp til ca 14x14 piksler (litt til, men sånn ca). Men også det virker litt drøyt. Tror hvemdetnåvar som ymtet noe om 200% kan være nærmere sannheten.

Siden en forstørrelse til 200% = 2x så mener du at det ser ut som her pixel er blåst opp til ca 1,4x1,4 pixler ? Nei, jeg tror nok 200% (dvs 2x) henviser til en dobling både av brede og høyde. (4x arealet).

 

Jeg tror det er en del videokameraprodusenter som benytter den regnemåten som du snakker om, altså at 16x zoom = 4 ganger forstørrelse av bredde og 4x forstørrelse av høyde. Men jeg vet ikke om noen andre som benytter en sånn regnemåte. Det er nok derfor rimelige konsumentvideokameraer ofte kan reklamere med 10x-25x optisk zoom mens konsumentorienterte digitale fotoapparater ofte reklamerer med 3x-5x optisk zoom.

Lenke til kommentar
Simen1: Mener du at 1024x768 er en lav oppløsning i spill? Jeg har alltid kjørt den oppløsningen, hva er det de fleste bruker i spill egentlig?

Spørs hvilken skjærm du har...

 

17" CRT bør bruke 1024x768..

 

17" LCD bør bruke 1280x1024 (1024x768 er ubrukelig på 17" lcd)

 

19" Crt bør bruke 1280x1024 som minimum, helst 1600x1200

 

19" LCD får du bare med 1280x1024 og det er FOR dårlig ! burde absolutt vert 1600x1200

Endret av SantaClaws
Lenke til kommentar
Simen1: Mener du at 1024x768 er en lav oppløsning i spill? Jeg har alltid kjørt den oppløsningen, hva er det de fleste bruker i spill egentlig?

Jeg vil egentlig ikke kalle 1024x768 så veldig lavt i spill. (brukte jo å være 640x480 og 800x600 som ble kalt lavt før). Men i sammenheng med LCD skjermer på 17-19" så og CRT-skjermer på 19" så er jo 1280x1024 normalt og da blir 1024x768 "lavt". Forøvrig så er det jo kjekt å kjøe med 1024x768 siden det betyr at man kan bruke skjermkort i prisklassen 1000kr og billige skjermer på de fleste spill.

 

Men for de med veldig mye penger og et sterkt ønske om veldig høy oppløsning så kjøper man både et dyrt skjermkrot dyr skjerm og dyr CPU.

 

SantaClaws: 1280x1024 på 18-19" LCD er egentlig finfint til 2D-bruk og i hvertfall til 3D. Jeg liker ikke at dot-pitch blir så veldig liten slik at tekst blir nesten uleselig uten å myse og enkeltpixler i spill blir for små til at man lett legger merke til detaljer som snikskyttere etc. Jeg synes egentlig at skille mellom 1280x1024 og 1600x1200 er riktig plassert mellom 19" og 20" på LCD. Personlig ville jeg unngått 20" LCD på grunn av lav dotpitch og heller valgt 18-19" eller 21+". På CRT-skjermer liker jeg 1152x864 på 17" og 1280x960 på 19".

Lenke til kommentar
Simen1: Mener du at 1024x768 er en lav oppløsning i spill? Jeg har alltid kjørt den oppløsningen, hva er det de fleste bruker i spill egentlig?

Spørs hvilken skjærm du har...

 

17" CRT bør bruke 1024x768..

 

17" LCD bør bruke 1280x1024 (1024x768 er ubrukelig på 17" lcd)

 

19" Crt bør bruke 1280x1024 som minimum, helst 1600x1200

 

19" LCD får du bare med 1280x1024 og det er FOR dårlig ! burde absolutt vert 1600x1200

Ville heller valgt 1280*960 på 19-tommmers crt, ellers blir geometrien feil.

 

AtW

Lenke til kommentar
Simen1: Mener du at 1024x768 er en lav oppløsning i spill? Jeg har alltid kjørt den oppløsningen, hva er det de fleste bruker i spill egentlig?

Jeg vil egentlig ikke kalle 1024x768 så veldig lavt i spill. (brukte jo å være 640x480 og 800x600 som ble kalt lavt før). Men i sammenheng med LCD skjermer på 17-19" så og CRT-skjermer på 19" så er jo 1280x1024 normalt og da blir 1024x768 "lavt". Forøvrig så er det jo kjekt å kjøe med 1024x768 siden det betyr at man kan bruke skjermkort i prisklassen 1000kr og billige skjermer på de fleste spill.

 

Men for de med veldig mye penger og et sterkt ønske om veldig høy oppløsning så kjøper man både et dyrt skjermkrot dyr skjerm og dyr CPU.

 

SantaClaws: 1280x1024 på 18-19" LCD er egentlig finfint til 2D-bruk og i hvertfall til 3D. Jeg liker ikke at dot-pitch blir så veldig liten slik at tekst blir nesten uleselig uten å myse og enkeltpixler i spill blir for små til at man lett legger merke til detaljer som snikskyttere etc. Jeg synes egentlig at skille mellom 1280x1024 og 1600x1200 er riktig plassert mellom 19" og 20" på LCD. Personlig ville jeg unngått 20" LCD på grunn av lav dotpitch og heller valgt 18-19" eller 21+". På CRT-skjermer liker jeg 1152x864 på 17" og 1280x960 på 19".

Problemet er jo at litt forsegjorte 17" LCD skjærm har 1280x1024 pixler....

 

Og hvis du har f.eks 1024x768 på en sånn skjærm så blir alt uleselig, og blurete, fordi skjærmen må "emulere" den oppløsninga...

 

Noen 17" LCD skjærmer blir levert med 1024x768 som max oppløsning, men da blir du jo "lurt" for det er for dårlig, nærsynte bør vurdere en sånn skjærm......

 

Samme mener jeg om 19" LCD...

 

Husk nå at en 17" LCD tilsvarer nesten 19" CRT i størrelse...

Lenke til kommentar
Jeg er forsåvidt fornøyd med dette kortet, men det gleder meg stort at nVidia nå EIER ATI

 

At nvidia eier ati?

Det vet man jo ingenting om fordi at sine kort ikke har kommet ut ennå....

Jeg håper ati legger seg helt ved side av nvidia slik at prisene presses.....

Lenke til kommentar
Siden en forstørrelse til 200% = 2x så mener du at det ser ut som her pixel er blåst opp til ca 1,4x1,4 pixler ? Nei, jeg tror nok 200% (dvs 2x) henviser til en dobling både av brede og høyde. (4x arealet).

 

Jeg tror det er en del videokameraprodusenter som benytter den regnemåten som du snakker om, altså at 16x zoom = 4 ganger forstørrelse av bredde og 4x forstørrelse av høyde. Men jeg vet ikke om noen andre som benytter en sånn regnemåte. Det er nok derfor rimelige konsumentvideokameraer ofte kan reklamere med 10x-25x optisk zoom mens konsumentorienterte digitale fotoapparater ofte reklamerer med 3x-5x optisk zoom.

Jeg sa NÆRMERE sannheten - ikke AT det var sannheten.

 

Den regnemåten du snakker om er feil - uansett hvem eller hva som bruker den. Oppløsning er en funksjon av antall punkter per flateenhet - så enkelt er det.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...