Gå til innhold

Skuffende 3dmark av Gffx


sub1343

Anbefalte innlegg

Videoannonse
Annonse

de tallene der kan stemme godt..

etter hva jeg har fått med meg så er Nvidia sure fordi Futuremark valgte å lage en syntetisk test som blant annet inneholder Pixelshaders v1.4 og ikke 1.3 som GF3/4 har (Radeon 8500 har 1.4), og at pixel shader v2.0 instruksjoner ikke følger Nvidia's egen shader path men bruker en pixel shader som følger DirectX9 standaren slavisk.

 

dette er ikke noe problem for ATI's Radeon 9xxx serie da dem jobber seg gjennom uten noe problem mens Nvidia må betale dyrt rett og slett fordi deres teknologi ikke takler så standard kode og må ta jobben med treg 32bit presisjon mens ATI har skutt gullfuglen med 24bit presisjon og har både detaljnivået oppe samtidig som det går raskt unna.

 

nå er det noen som funderer også på at GFFX har bare 4x2TMU's, ikke 8x1 som Nvidia selv har hevdet ved produkt lansering og intervju.. har dem bare 4x2 (noen mener det er en slags form for hybrid pipelines som kan jobbe både som 4x2 og 8x1 (4x1+4x0, TMU'n på siste 4 pipelines blir ikke brukt, bare en liten del av vertex/pixel shader på pipe'n er i bruk ved noen få sjeldne operasjoner med fog og shadow som reulterer i lettere ekstrem ytelseøkning i de få sjeldne eventene.)) så sliter Nvidia noe grønnjævli.. dagens spill viser klare tendenser til å bevege seg over til single texturing i spill og bruker mindre og mindre multi-texturing. tilbake i GF3 dagene og Q3Arena så var multi-texturing det virkelig store og spillet/brikken var/er nærmest bygget for hverandre rett og slett fordi GF3/4 brikkene var så gode i multi-texturing..

Lenke til kommentar
blant annet inneholder Pixelshaders v1.4 og ikke 1.3 som GF3/4 har (Radeon 8500 har 1.4), og at pixel shader v2.0 instruksjoner ikke følger Nvidia's egen shader path men bruker en pixel shader som følger DirectX9 standaren slavisk.

 

Jepp - Futuremark har rett og slett bare fulgt DX9 standarden og har ikke optimalisert for Ati. At Nvidia slipper et kort som faktisk ikke er helt DX9-kompatibelt er jo bare helt latterlig når Ati klarte det for over et halvt år siden.

 

Mye av dette bunner vel i Nvidia's tyning av eksisterende teknologi for å melke markedet mest mulig uten å tilby så mye ekstra fra generasjon til generasjon. Dette ser man jo på f.eks. at Nvidia (før FX kom) strengt tatt ikke hadde utviklet GPU'en sin noe siden GeForce 3. GF4 er jo langt på vei bare en raskere utgave av GF3 - at GF4 f.eks. ikke har støtte for pixelshader 1.4 (som vel strengt tatt er en DX 8.1-greie?) som var en etablert standard før GF4 kom er jo også rimelig sløvt.

Lenke til kommentar
blant annet inneholder Pixelshaders v1.4 og ikke 1.3 som GF3/4 har (Radeon 8500 har 1.4), og at pixel shader v2.0 instruksjoner ikke følger Nvidia's egen shader path men bruker en pixel shader som følger DirectX9 standaren slavisk.

 

Jepp - Futuremark har rett og slett bare fulgt DX9 standarden og har ikke optimalisert for Ati. At Nvidia slipper et kort som faktisk ikke er helt DX9-kompatibelt er jo bare helt latterlig når Ati klarte det for over et halvt år siden.

 

Mye av dette bunner vel i Nvidia's tyning av eksisterende teknologi for å melke markedet mest mulig uten å tilby så mye ekstra fra generasjon til generasjon. Dette ser man jo på f.eks. at Nvidia (før FX kom) strengt tatt ikke hadde utviklet GPU'en sin noe siden GeForce 3. GF4 er jo langt på vei bare en raskere utgave av GF3 - at GF4 f.eks. ikke har støtte for pixelshader 1.4 (som vel strengt tatt er en DX 8.1-greie) er jo også rimelig sløvt.

 

 

Jepp og skulle de ha gått over til Ps 1.4 så ville spille produsentene ha gjort det samme og den gammle GF serien ville vært død.

Tenker det er deres måte på å prøve å beholde kontroll over spill markedet,samtidig med at tidligere generasjoner skal kunne konkurere en stund til.

Lenke til kommentar

Jepp og skulle de ha gått over til Ps 1.4 så ville spille produsentene ha gjort det samme og den gammle GF serien ville vært død.

Tenker det er deres måte på å prøve å beholde kontroll over spill markedet,samtidig med at tidligere generasjoner skal kunne konkurere en stund til.

 

Du har nok poenget der ja - klippet forøvrig følgende fra en post på nvnews.net og han (hun?) hadde en ganske bra forklaring:

 

"The GeForce 4 didn't have version 1.4 for one reason and one reason only...the Radeon 8500 had it. This is why nVidia spent so much time slamming 1.4. They didn't include it in an attempt to kill it and they knew if they didn't include support for it then most games released would not use it. As far as the other graphics cards, they didn't include support for version 1.4 simply because nVidia didn't.

 

There is a reason why Carmack said the 8500 will run Doom3 better than a GeForce4 and that is because of pixel shader version 1.4. NVidia knew the 8500 would be faster than the GeForce4 which is why they didn't include 1.4. Since most developers optimize for nVidia's cards, that means by not including pixel shader 1.4, games would not use it and because of that, the GeForce4 would be faster than the 8500."

 

Synes denne konklusjonen høres ganske fornuftig ut.

Lenke til kommentar
dette scenarioet hadde vært fett med microsoft :D )

 

Hehe - du sier noe :smile:

 

Uansett går vel neppe Nvidia under med det første. Personlig synes jeg det er bra at det igjen har blitt litt konkurranse i grafikkmarkedet, for da blir det jo bedre og billigere teknologi til oss alle istedet for 'resirkulering' og små forbedringer.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...