Gå til innhold

NV40 vil ha 16x1 pipelines


Endre

Anbefalte innlegg

ja,vil vise seg om Nvidia overdriver denne gangen også.

8x2(16) pipelines tror jeg ikke får jeg ser det..

 

er vel mere og vise seg fram eller og ha noe og slå i boret med til ati.

 

men håper på en jevn kamp mellom ati og Nvidia

men Nvidia har gått stille i dørene denne gang,tro om de har noe i bakhånd

som kan bli avgjørende mellom kortene.

eller har bare lært seg og holde mere kjeft,og ikke sette opp forventingene

til folket.

 

tror om det kan bli "bilder" av kortene på web"en før messen i mars :dribble:

Lenke til kommentar
Videoannonse
Annonse
ja,vil vise seg om Nvidia overdriver denne gangen også.

8x2(16)  pipelines tror jeg ikke får jeg ser det..

8 fysiske pixel pipelines som opererer med 16 pixler per clock i enkelte situasjoner er ikke så usannsynlig. Hvis det var det du mente? 8x2 betyr 8 pipelines med 2TMU hver og ikke 8x2=16 pipelines.

Det som det var snakk om her var 16 full pipelines som kanskje opererer med 32 pixler i enkelte situasjoner 16x1(32x0).

Lenke til kommentar
Stoler ikke på syntetiske benchmark  :thumbdown: , men di er greie til å få en viss pekepinne på hva kortet yter.

Så du gjør ikke det du da , hvorfor bruker Hardware.no i nesten alle sine tester av VPU nettopp syntetiske benchmarks, synes da hardware.no er en ganske pålitelig kilde jeg da ;)

Joda hardware.no er pålitelig, men han har rett i at de syntetiske testene sier ikke så mye om kortene som dere tror. Tar du og leser noen tester mellom ati og nvidia, så sier noen at ati vant 12 av de 20 testene og dermed er ati raskere. Jaja sier eg, du merker ikke noe forskjell.

Lenke til kommentar

Joda hardware.no er pålitelig, men han har rett i at de syntetiske testene sier ikke så mye om kortene som dere tror. Tar du og leser noen tester mellom ati og nvidia, så sier noen at ati vant 12 av de 20 testene og dermed er ati raskere. Jaja sier eg, du merker ikke noe forskjell.

Nei, du har helt rett i at de (syntetiske tester) ikke vil si nøyaktig hvor mye fps du får i noe som helst spill, men de vil kunne gi deg en pekepin på hvordan kortet vil oppføre seg i et spill som bruker mye av denne funksjonen.

 

F.eks. så kan man vha. en syntetisk PS2.0 test se hvordan Nvidia har store problemer med å kjøre denne raskt, mens ATI ikke har noe problemer. Dette gjør at man kan få en forståelse av at Nvidias kort ikke ville kunne gi de helt store hastighetene i spill som bruker mye PS2.0, men nok må gå tilbake til PS 1.1(/1.2/1.3) for å holde følge med ATI...

 

Det er det samme hvis man bruker en syntetisk test som sjekker hvor fort hvert kort klarer å lage skygger alá D3... Her vil man se at Nvidia ligger foran ATI, da Nvidia har valgt å satse på dette området.

 

Det som lett er problemet når man bruker syntetiske tester er at man glemmer at de kun forteller deg om hvordan hvert kort klarer en enkelt ting...

 

 

Så mitt spørsmål er hvorfor stoler du ikke på dem? Så lenge man vet hva testene ikke sier noe om så synes jeg de er veldig pållitelige (bortsett fra PS2.0 testen i 3DMark 03 som Nvidia jukser i....)

Lenke til kommentar
ja,vil vise seg om Nvidia overdriver denne gangen også.

8x2(16)  pipelines tror jeg ikke får jeg ser det..

8 fysiske pixel pipelines som opererer med 16 pixler per clock i enkelte situasjoner er ikke så usannsynlig. Hvis det var det du mente? 8x2 betyr 8 pipelines med 2TMU hver og ikke 8x2=16 pipelines.

Det som det var snakk om her var 16 full pipelines som kanskje opererer med 32 pixler i enkelte situasjoner 16x1(32x0).

takk ..mente 16 full pipelines :)

Lenke til kommentar
Joda hardware.no er pålitelig, men han har rett i at de syntetiske testene sier ikke så mye om kortene som dere tror. Tar du og leser noen tester mellom ati og nvidia, så sier noen at ati vant 12 av de 20 testene og dermed er ati raskere. Jaja sier eg, du merker ikke noe forskjell.

Dette må isåfall være typiske benchmark spill uten bruk av AA og AF ;) I enkelte spill vil mange merke forskjell om det er i ATi's eller nVidia's favør. Hva med å snakke for deg selv og ikke andre?

 

Det var forøverig ganske skuffene å se HW.no bruke 3DMark03 med drivere som ikke er godkjent av Futuremark.

Lenke til kommentar

Mr Garibaldi "Så mitt spørsmål er hvorfor stoler du ikke på dem? Så lenge man vet hva testene ikke sier noe om så synes jeg de er veldig pållitelige (bortsett fra PS2.0 testen i 3DMark 03 som Nvidia jukser i....)"

 

Ganske enkelt fordi det er enklere å jukse/modifisere på sluttresultatet i syntetiske benchmark enn i real life spill og derfor er resultatene avvikende fra det som man får i spill.

At man får 28.000 3dmarks forteller deg ikke hvordan x spill yter, men gir en pekepinne på ytelsen.

Endret av Malvado
Lenke til kommentar

Mr.Garibaldi: Mye på grunn av jukset som ble oppdaget med driverne, grafikk produsentene kan lage mye rart i driverne som du og eg ikke vet hva er.

De testene er meget bra for nvidia og ati om noen av den skårer litt mere enn den andre.

Får ati litt mere poeng enn nvidia så selger de mye kort på grunn av den testen. Det samme gjelder selvsakt om nvidia skårer litt mere enn ati.

For de er så like at du ikke merker det i praksis. Feks nvidia 5950 og ati 9800Pro.

Ati skårer bedre i Dx9, derfor er de raskere, sier mangen.

For når du leser testene så har eg ikke opplevd å se de helt store forskjellene mellom de forskjellige produsentene, men vinner nvidia så selger de bra, vinner ati så selger de bra.

Så du kan også kalle det ett bra salgs hjelpemiddel for grafikk produsentene.

Men vi må ha test programmene, men mitt poeng er at forskjellen mellom dem er meget lite i praksis.

Lenke til kommentar

ja..sant nok.

men nvidia bruker også og legge på litt av og til(er ikke første gang)

 

er bare og se på hjemmesidene til nvidia(hvis det står der ennå)

der sto det da fx 5200 kortene skulle ha en båndbredde på ca 10.4

 

med andre ord selv de dårligeste kortene skulle ha samme båndbredde som

de beste ti-kortene(ti 4600-4800)

 

nei,vi får neppe svare før hardware.no eller noe andre seriøse websider

viser oss tester av kortene.. :thumbup:

 

 

ps:fant linken til fx 5200:

 

http://www.nvidia.com/page/fx_5200.html

Endret av Traxco
Lenke til kommentar
Ganske enkelt fordi det er enklere å jukse/modifisere på sluttresultatet i syntetiske benchmark enn i real life spill og derfor er resultatene avvikende fra det som man får i spill.

Ja det er derfor nVidia kommer dårligere ut i en del tilfeller der custom-made timedemoer blir brukt ;)

Populære benchmark blir mål for juks uansett om det er en syntetisk benchmark eller real-life spill. Enkelte syntetiske tester har nå "anti-cheat" funksjoner som skal detektere applikasjons spesifikke optimaliseringer og Futuremark verifiserer nå drivere for å forsikre seg mot juks.

 

Mye på grunn av jukset som ble oppdaget med driverne, grafikk produsentene kan lage mye rart i driverne som du og eg ikke vet hva er.

Futuremark er virkelig ubrukelige som oppdager juks og gjør noe med det. Jeg syns det er litt i bakvendt land at det er Futuremark som skal straffes for det. Med at dem nå verifiserer drivere for 3DMark03 så er ikke det problemet der lenger.

 

Ati skårer bedre i Dx9, derfor er de raskere, sier mangen.

For når du leser testene så har eg ikke opplevd å se de helt store forskjellene mellom de forskjellige produsentene, men vinner nvidia så selger de bra, vinner ati så selger de bra.

Hvor mange PS2.0 intensive spill er det ute på markedet? Det er mulig du mener at det er kun ytelsen i dagens spill som er viktig, men jeg tror ikke det er så veldig mange som deler det synspunktet.

 

men mitt poeng er at forskjellen mellom dem er meget lite i praksis.

Noe som f.eks TR:AoD viser.. :roll:

 

a..sant nok.

men nvidia bruker også og legge på litt av og til(er ikke første gang)

 

er bare og se på hjemmesidene til nvidia(hvis det står der ennå)

der sto det da fx 5200 kortene skulle ha en båndbredde på ca 10.4

FX5200Ultra bruker 650Mhz minne og har dermed en minnebåndbredde på 10.4GB/s.

Lenke til kommentar
Dette må isåfall være typiske benchmark spill uten bruk av AA og AF ;) I enkelte spill vil mange merke forskjell om det er i ATi's eller nVidia's favør. Hva med å snakke for deg selv og ikke andre?

 

Du tar ikke poenget ser eg? Har prøvd med ati og nvidia, husker ikke hva de heter. Men de var nokså like(kortene), men eg så ikke noe forskjell i bruk. Eg husker dessverre ikke hvilken oppløsning de brukte. Det var meget bra på begge skjemkortene, menmen kanskje eg er for gammel til å se forskjellen, hehe.

Lenke til kommentar
Du tar ikke poenget ser eg? Har prøvd med ati og nvidia, husker ikke hva de heter. Men de var nokså like(kortene), men eg så ikke noe forskjell i bruk. Eg husker dessverre ikke hvilken oppløsning de brukte. Det var meget bra på begge skjemkortene, menmen kanskje eg er for gammel til å se forskjellen, hehe.

Det er du som ikke tar poenget. Selv om du ikke ser forskjell så betyr det ikke at ingen andre heller ser forskjell.

Hvis du virkelig ikke ser forskjell på f.eks 17FPS og 30FPS gjennomsnitt i TR:AoD (GeForce5900U vs R9800Pro) så deg om det.

Nå har det også kommet fram at FarCry bruker default PS1.1 (dx8) på GeForceFX.. I wonder why.

Endret av MistaPi
Lenke til kommentar
Mr.Garibaldi: Mye på grunn av jukset som ble oppdaget med driverne, grafikk produsentene kan lage mye rart i driverne som du og eg ikke vet hva er.

De testene er meget bra for nvidia og ati om noen av den skårer litt mere enn den andre.

Men vi må ha test programmene, men mitt poeng er at forskjellen mellom dem er meget lite i praksis.

Men det er jo det som er en del av poenget med syntetiske tester...

De viser styrkene/svakhetene til de forskjellige arkitekturene som er tilgjengelige...

 

Ja, det vil også gjøre at den ene eller andre selger flere kort, men det er jo ikke til å forhindre.

Jeg ville ihvertfall aldri kjøpt et nytt skjermkort uten å ha satt meg inn i hvordan dette kortet fungerte i spilll og syntetiske benchmark så jeg kunne danne meg et bilde av hvordan det vil prestere i nåværende spill (basert på spill benchmarks) og i fremtidige spill (vha. syntetiske tester)...

 

En annen fordel med syntetiske tester er at de kan vise deg hvor future-proof et kort er, ved å utnytte funksjoner som vi enda ikke ser i spill. Det er ikke ett DX9 spill (som er bygget med DX9 i tankene fra starten av) på markedet, så hvordan i all verder skal vi kunne finne ut av hvordan våre kort vil fungere i dem? Ved hjelp av syntetiske tester kan vi ihvertfall danne oss et bilde av hva kortene våre kan prestere....

 

Ganske enkelt fordi det er enklere å jukse/modifisere på sluttresultatet i syntetiske benchmark enn i real life spill og derfor er resultatene avvikende fra det som man får i spill.

At man får 28.000 3dmarks forteller deg ikke hvordan x spill yter, men gir en pekepinne på ytelsen.

 

Underlig... For jeg kan ikke huske at noen hadde lagt merke til juksingen som forgikk/foregår i UT2k3 før etter at Futuremark hadde funnet ut at nvidia jukset i 3DMark03...

 

Så jeg vil tørre påstå at det er lettere å oppdage juks i syntetiske tester i forhold til spill.

Mens et firma som lager syntetiske tester er mest interessert i at resultatene er uten juks er ikke spill firmaer like "våkne" på dette området... Det er meget sjelden at en spill produsent går ut å kritiserer en IHV, da de er mer interessert i å selge flest mulig spill. Men f.eks. futuremark er avhengige av at folk kan stole på resultatene som testen(e) deres genererer.

 

Futuremark gjorde nettopp dette, og for et oppstyr det ble ut av det. Man fant plutselig ut at man ikke kunne bruke standard demo'ene til en del spill, da disse ikke ga et riktig bilde av hvordan spillet ville fungere. Takket være Futuremark så har vi nå tester hvor man bruker egne, ikke nedlastbare demo'er som viser hvordan spillet faktisk fungerer. Men som sagt over, jeg kan ikke huske at Epic har gått ut og sagt at Nvidia jukser i benchmark funksjonen til UT2k3, eller at de senker IQ'en i forhold til hva du ber om i settingene.

 

Når det gjelder 28.000 3dmarks, så er jeg enig i at det det ikke sier noe i det hele tatt (annet enn hvis du sammenligner to identiske maskiner for å se om du har tweaket maskinene til det ytterste).

 

Men hvis du heller ser på de syntetiske testene hver for seg vil du få en pekepin på om kortet ditt klarer et PS2.0 intensivt spill, eller om du blir nødt til å bruke PS1.1, som Nvidia eiere må i FarCry...

 

[EDIT]

Bah, alle BBS systemer bruker forskjellige quote systemer, og jeg greier ikke å skille mellom dem alltid :(

[/EDIT]

Endret av Mr.Garibaldi
Lenke til kommentar

Ok eg gjer opp, kommer ingen vei her inne. Har selv hold på med å byttet til nye skjermkort hvær gang det kom ut nye. Så ikke noe serlig forskjell, men eg viste det var bedre og eg hadde det siste nye. Så nå har eg GF2 Ultra 64MB som eg kjøpte i desember 2000, skal bytte nå nv40 kommer+ 21,3"LCD sony.

Ja nå vil eg merke mye forskjell om eg kjøper NV40,hehe.

Lenke til kommentar

"Ja, jeg er veldig glad for at mitt FX5900 sliter med PS:2.0" :roll:

 

 

Men MistaPi: Åssen er det med PS 3.0?(og VS3.0 for den saks skyld..) Det sies at det aldri vil bli en DX9.1, og at PS 3.0 'funskjonene' or whatever faktisk er innebygd i DX 9.0(b?)? Vet vi noe, ut ifra hvordan kortene yter i PS 2.0, hvilke som vil yte best i 3.0? For altså, hvis det er lengre instuksjoner, eller instrukjsonene er delt opp mer i retning av det NV3X liker(parvis?), så vil vel de i teorien ha bedre sjangs her? *undre*

Brukes forresten Vertex-shader mye? Fordi mitt kort yter jo sinnsykt dårlig på VS 2.0... ehe..syns jeg da...vet ikke hvordan det er i forhold til ATi...ingen tester tar med VS 2.0 syns jeg..

 

 

Men litt on-topic igjen: Jeg driter egentlig i ALLE spekulasjoner som jeg har hørt om NV40 og RV420. Så det så:p Venter og ser jeg. Men det hadde vært så LATTIS om NV40 hadde 2x16 pipelines :laugh: Egentlig så håper jeg at det IKKE blir en jevt løp mellom ATi og nVidia - det er så slitsomt! I tillegg er jeg spent på hva XGI kan bringe på banen etterhvert...hadde vel egentlig aldri trodd at de skulle komme helt ferske og knuse både ATi og nVidia!

Jeg håper at en produsent blir overlegen, uten juks, uten bestikkelser, med stabile drivere og god kompabilitet... osvosv - for da vet jeg hva jeg skal kjøpe! hehe :cool:

 

 

:sleep: Lowered expectations :whistle:

Lenke til kommentar
Underlig... For jeg kan ikke huske at noen hadde lagt merke til juksingen som forgikk/foregår i UT2k3 før etter at Futuremark hadde funnet ut at nvidia jukset i 3DMark03...

 

Så jeg vil tørre påstå at det er lettere å oppdage juks i syntetiske tester i forhold til spill.

 

Det er nok mest avhengig av hva som er gjort i henhold til såkalte "optimaliseringer" i driverene, så lenge spilloplevelsen og bildekvaliteten ikke lider under disse optimaliseringene så er det greit, men problemet er at juksingen i mange tilfeller fører til semre bildekvalitet (som en viss 5x.xx serie) i sammtlige spill og ikke bare i benchmark.

 

Det skulle da bare mangle at det ikke ble oppdaget juksingen, det er rett og slett tåpelig av skjermkortprodusentene å gjøre noe sånt. Men desverre så har hypen basert på syntetiske benchmarks gjort det sånn (at det jukses i 3dmarks blandt annet).

 

Så hva er egentlig hensiktet til syntetiske benchmarks? : Å produsere et nummer over 0 og få en eller annen til å tro at x kort er veldig bra ut ifra den summen. At den tester såkalte frammtidige funskjoner er bare en pluss, men desverre så er det slik at når disse kommer i bruk så er som regel skjermkortene utfasert allerede.

 

Etter min mening så er det kun dagens spill som kan gjengi hvor bra et skjermkort fungerer, at det kommer til å fungerer bra med morgendagens spill er selvsagt en bonus men ikke en selvfølge, og ønsker man å spille d3 bra så bør man vente til selve spillet er utprøvd på den tids teknologi.

 

Kan jo si at jeg benchmarker for å se om tweakingen på pcen har hatt noe nytte, og da bruker jeg sandra, prime95(stabilitet) og 3dmarks for å finne ut av det, men jeg kjøper definitivt ikke skjermkort basert på poengsummen i et benchmarks-program.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...