Gå til innhold

Enda mer nVidia fusk


kgeel

Anbefalte innlegg

Videoannonse
Annonse

Bryr meg heller lite om hva folk sier om 3Dmark03.. Det har så utrolig lite å si i virkeligheten. Det er de ekte spilla som teller, ikke noe tullete syntetisk benchmark.

Siden GF4 ti4600 scorer halvparten av hva 9500 pro gjør i 3Dmark03, så tror dere at Radeon 9500 pro er 2 ganger så bra som GF4 ti4600? Dere som tror det må jo være helt pling i bollen.

ja!!!

hvis doom3 hadde vert ute for salg naa skulle jeg sagt deg at 9500 pro hadde vert om lag dobbelt saa bra som gf4 ti4600.

grunnen for det er at det er et DX9 spill det samme er 3dmark2k3 bare at det er en "demo" eller en form for "video" som skal teste skjermkortet ditt.

Jeg kan til og med ramse opp et spill i farten en fyr med gf4 ti4600 ikke kunne spilt!!

et lite pinglete tetris spill som krever dx9

Lenke til kommentar

FuSION..

 

Folk som du er nettop problemet.. Folk som har ikke PEILING på hvad dem snakker om.

 

03 er DX9 TEST og når det gjelder DX9 då vil 4600 kortet ditt være knesett. At du tror at benchen feil sier jeg bare.. glad at du er ikke en forsker.. bare blir sur hvis du får ikke de resultater som DU vil ikke som testen viser og jobber så med saken.

 

Simon

Lenke til kommentar

ATI jukset vel når de lå litt etter nVidia og var i _ferd_ med å ta nVidia igjen på ytelse, men liksom ikke helt klarte det. I dag er vel ATI best på ytelse? Dvs nVidia mister terreng og må jukse for å innbille forbrukere om at de er bedre enn de virkelig er. Jeg tror til syvende og sist at slikt juks bare kan virke negativt, noen finner utav det før eller siden. Min oppfordring er at de bruker resursene til å utvikle nye prosessorer, noen må lede på ytelse og om det er ATI eller nVidia burde være likegyldig for oss forbrukere, så sant prisene også er under konstant press.

 

Utover det er det vel slik at de fleste forbrukere som kjøper løse skjermkort vet at marginene som måles er veldig små, dvs det ligger som regel også andre kriterier til grunn, f.eks drivere, tekniske løsninger etc.

Lenke til kommentar

nettop!!!

om du har gforce 4,radeon 9700 pro,9800 pro, eller gforce fx i cs spiller ikke saa veldig stor rolle.

om du faar 250 fps eller 300 fps det tror jeg de fleste her driter i.

Det fins veldig faa dx 9 spill ute naa.

Men naar f.eks doom 3 kommer ut og krever dx 9 og gforce 4 kommer til og stoette det software,da blir det forsjeller.

Dette her er ikke snakk om ting som sjer naa men om kansje 3 maandeer.

Lenke til kommentar
FuSION..

 

Folk som du er nettop problemet.. Folk som har ikke PEILING på hvad dem snakker om.

 

03 er DX9 TEST og når det gjelder DX9 då vil 4600 kortet ditt være knesett. At du tror at benchen feil sier jeg bare.. glad at du er ikke en forsker.. bare blir sur hvis du får ikke de resultater som DU vil ikke som testen viser og jobber så med saken.

 

Simon

 

Tror FuSION har mer peiling en du tror! Han har et poeng når det gjelder test i forhold til dagens spill.

Lenke til kommentar
MortenJ.. EVE online er DX9 spill og jeg logger meg inn på her dag.

 

Etter det jeg vet så er two sided stencils operations den eneste DX9 funksjonen EVE-online bruker, for bedre ytelse.

 

Hva syns du forresten om spillet? Hørt det er mye død tid i det?

 

3Dmark01SE er ikke så ille til å måle ytelsen mellom forskjellige kort. Det er 3Dmark03 som det ikke går ann å sammenlignes med.

 

3DMark01 er håpløst CPU bound med dagens high-end kort, ihvertfall med default instillinger.

 

 

Selv kjøpte jeg meg et demobrukt Ti4200 for et par dagen siden, og er storfornøyd. Nå går plutselig alle spilla glatt. Hvor bra vil du at det skal se ut egentlig? Syns det ser bra nok ut jeg.

 

Deg om det, jeg vil ihvertfall at det skal se best mulig ut og 16xAF og 4xRGAA kan gjøre underverker, IMO.

 

Jeg driter langt kjøss hva nvidia gjør med sine skjermkort, så lenge de fungere, noe alle nvidia skjermkort som har vært i dette hus har gjort hittil.  

Bryr meg heller lite om hva folk sier om 3Dmark03.. Det har så utrolig lite å si i virkeligheten. Det er de ekte spilla som teller, ikke noe tullete syntetisk benchmark.

 

Det viser jo at Nvidia ikke går av veien for å jukse og hvorfor tror du nvidia stopper der med 3DMark03? 44.03 driveren gjør også noe mistenklig med Splinter Cell.

 

"I know exactly what those two ps_1_1 shaders codes are (unfortunately I can't provide them -- Ubisoft doesn't want me to) and those codes mean that "waves/ripples" should be rendered over the entire ocean's surface. Brent noticed that there are a number of spots where there are no "waves/ripples" on his 5900Ultra using 44.03s."

-Reverend, Beyond3D

 

 

Siden GF4 ti4600 scorer halvparten av hva 9500 pro gjør i 3Dmark03, så tror dere at Radeon 9500 pro er 2 ganger så bra som GF4 ti4600? Dere som tror det må jo være helt pling i bollen.

 

3Dmark03 funker dårlig med å teste et DX8 kort opp mot et DX9 kort, et Dx9 spill ville også gitt et feil bilde til det formålet.

 

Jeg syns heller at alle slike tråder med "NVIDIA JUKSER!!!" "ATI JUKSER!!!" skulle vært stengt for lenge siden.

 

Fordi? Syns du ikke forbrukere bør få vite når et selskap prøver å danne et feil bilde av produktene dems?

 

Skjønner ikke hvorfor alle plutselig ser ned på nvidia, føler dere truet eller ATI-fans? Er dere redd for at nvidia nok en gang skal ta over tronen? Ati er ikke akkurat helt uskyldige de heller... Men alltid så er det nvidia sakene som blir blåst opp. (mest sannsynligvis av missunelige Ati-fans).

 

Det er ikke noe bedre på den andre siden, husker godt at den quack saken ble blåst opp av nvidia fans til de grader.

Lenke til kommentar

ja!!!

hvis doom3 hadde vert ute for salg naa skulle jeg sagt deg at 9500 pro hadde vert om lag dobbelt saa bra som gf4 ti4600.

grunnen for det er at det er et DX9 spill det samme er 3dmark2k3 bare at det er en "demo" eller en form for "video" som skal teste skjermkortet ditt.

Jeg kan til og med ramse opp et spill i farten en fyr med gf4 ti4600 ikke kunne spilt!!

et lite pinglete tetris spill som krever dx9

 

Hvor har du fått det fra at Doom3 bruker DX9? For det første, så kommer ikke Doom3 til å kreve noen av funksjonene i brikker som er nyere enn R8500 og GF3. Det er klart nyttig med større båndbredde, flere textures per pass, flere pixel pipelines etc, men det kommer ikke til å KREVE noen features som er på kort nyere enn R8500/GF3. Og for det andre, så er det OpenGL basert, så DX9 praten din viser at du er på bærtur.

 

Her er det forresten en test der R9600 og Ti4200 (tilsvarende kort som de du prater om) er testet i Doom3. Resultatene stemmer ikke helt med dine påstander om at R9500 ville vært dobbelt så raskt som Ti4600. Det tregere Ti4200 kortet henger veldig godt med...

 

http://www.tomshardware.com/graphic/200305...fx_5900-11.html

Lenke til kommentar
3Dmark01SE er ikke så ille til å måle ytelsen mellom forskjellige kort. Det er 3Dmark03 som det ikke går ann å sammenlignes med.

Hvorfor ikke? Sammenligne hva da? Hvis verdiene fra de ulike deltestene i 3dm03 ikke kan brukes til å sammenligne med, hva er det da for slags verdier?

 

Les gjerne de tre artiklene om 3dm03 som ligger her.

 

Selv kjøpte jeg meg et demobrukt Ti4200 for et par dagen siden, og er storfornøyd. Nå går plutselig alle spilla glatt. Hvor bra vil du at det skal se ut egentlig? Syns det ser bra nok ut jeg.

Supert for deg. Og det finnes kort som gjør det ennå bedre. Supert det også. Hva var poenget ditt egentlig?

 

Og høre ATI fans slenge drit om nvidia er jo papetisk å lese, særlig alt det bullshitet Templar skriver.

Hvorfor denne avsindig tåpelige trangen til å plassere folk i en sort-hvit fanboy-basert verden?

 

Jeg driter langt kjøss hva nvidia gjør med sine skjermkort, så lenge de fungere, noe alle nvidia skjermkort som har vært i dette hus har gjort hittil.

Kanskje greit å legge fram poenget ditt på en skikkelig måte. Ovenstående inneholder en aldri så liten logisk kræsj, hvilken del skal vi egentlig ta alvorlig?

 

Bryr meg heller lite om hva folk sier om 3Dmark03.. Det har så utrolig lite å si i virkeligheten. Det er de ekte spilla som teller, ikke noe tullete syntetisk benchmark.

Igjen en ubegrunnet påstand som du bør forklare nærmere før den kan tas alvorlig. Hva er det for slags virkelighet du refererer til? Hva måler de "ekte spilla" så mye bedre i forhold til "syntetisk benchmark"?

 

Siden GF4 ti4600 scorer halvparten av hva 9500 pro gjør i 3Dmark03, så tror dere at Radeon 9500 pro er 2 ganger så bra som GF4 ti4600? Dere som tror det må jo være helt pling i bollen.

Igjen vanskelig å følge deg helt ut. Siste setning har imidlertid et element av sannhet, ved at det refererer til vår uendelige trang til å konkludere stort ut fra noe som er ganske lite. Naturligvis gir ikke 3dm03 den totale sannhet om hvordan to kort oppfører seg i forhold til hverandre. Men den er en av flere tester som i sum kan gi et brukbart bilde. Den er i tillegg standardisert, kontrollert og relativt åpen, kriterier som også teller positivt (i forhold til "ekte spill").

 

Jeg syns heller at alle slike tråder med "NVIDIA JUKSER!!!" "ATI JUKSER!!!" skulle vært stengt for lenge siden.

Så suspekte driverrutiner kvalifiserer ikke som juks i ditt vokabular? Hvorfor ser du på en diskusjon av det som en vederstyggelighet?

 

Skjønner ikke hvorfor alle plutselig ser ned på nvidia, føler dere truet eller ATI-fans? Er dere redd for at nvidia nok en gang skal ta over tronen? Ati er ikke akkurat helt uskyldige de heller... Men alltid så er det nvidia sakene som blir blåst opp. (mest sannsynligvis av missunelige Ati-fans).

Dette er bare tullete og viser ikke annet enn at du er blind og døv for en diskusjon som i de fleste fora rundt omkring faktisk klarer å foregå relativt balansert og reflektert.

 

Han har et poeng når det gjelder test i forhold til dagens spill.

Da bør han forklare det. Slik innlegget hans står nå så er det helt poengløst.

Lenke til kommentar
Jeg driter langt kjøss hva nvidia gjør med sine skjermkort, så lenge de fungere, noe alle nvidia skjermkort som har vært i dette hus har gjort hittil.

 

Kanskje greit å legge fram poenget ditt på en skikkelig måte. Ovenstående inneholder en aldri så liten logisk kræsj, hvilken del skal vi egentlig ta alvorlig?

Legge frem poenget på en skikkelig måte? alle hans nvida kort funkergull. trenger du mer? sitter selv med begge skjerm merker skjermkort og ser jo tydelig at nvida kortet er mere allround. selv om det er svakere en mitt 9700pro

Lenke til kommentar
"]mortenj, jeg syns du skal kutte ut med å hakke på andres innlegg med x antall siteringer med en spydig kommentar under, og heller ytre dine egne meninger.

Tja, hvor er moroa i det? Nei, litt mer alvorlig, av og til kommer det innlegg som hadde hatt godt av en noe annerledes stil. Det ligger helt sikkert utmerkede meninger bak innlegget til fUsiOn, men han bør ta seg tid til å få de skikkelig fram. Hvorfor reagerer du egentlig på at jeg finner ting ved teksten hans uklart og ønsker å få en utdypning?

 

Egne meninger har i rikelig grad kommet fram tidligere, her og her for eksempel.

 

Tibake til saken: Så alle er helt sikre på at dette er sant? Er det bevist? Eller er det sånn at hvis en kjent HW-side skriver det, så er det sant?

 

Give me a link

Du skal få min mening her, siden jeg ikke har kommentert dette ennå...

 

Jeg er slett ikke sikker på at dette på noe som helst måte kan kvalifisere som juks. Først og fremst savner jeg en 3dmark/3dmurk sammenligning gjort UTEN AF, så vidt jeg husker fra Techreport artikkelen så gjør de den bare med AF. På meg virker det litt som at forskjellene i de to skjermbildene ikke skyldes at nvidia gjør noe uggent med AF men kanskje heller med LOD. Jeg tror dette skyldes at nVidia sjekker om 3dmark kjører, dersom ja så brukes en standardverdi for LOD. Når så Techconnect endrer navn til 3dmurk, så oppdager ikke driveren at 3dmark kjører og den brukervalgte LOD-verdien blir gjeldende. Men det blir bare spekulasjon... (og det må uansett være noe mer som foregår, en endring i LOD vil ikke forklare 10-20% endring i benchmark-resultat)

Lenke til kommentar

De to bildene som tech-report viser er så like at jeg gjerne hadde tatt det påstått "dårligste" for en liten ytelsesøkning. Jeg er klar over at det ikke er hele poenget her, men den boikotten som enkelte skriker opp om her blir litt absurd i forhold til hva det faktisk er vi snakker om. Hvis man ikke kan se forskjell på bildekvaliteten i et EKTE spill, så er det etter min mening ingenting å skrike opp for.

 

For øvrig er det f*** meg på tide at hardware sider starter å teste i ekte spill, gjerne med sine egne demoer, slik at denne typen optimaliseringer blir umulige å gjøre. Tipper at enkelte av disse skriker opp nå fordi de har skjønt at de har stolt altfor mye på syntetiske og irrelevante benchmarks sammenliknet med de nye spillene som faktisk er ute.Bildekvalitet sammenlikning ATi vs NVidia er også interessant, da alle vet at ATi sin aniso ikke dekker alle flater, slik som NVidia sin. Men dette er det ingen som snakker om....

Lenke til kommentar

Noen som husker at GeForce 2 Ultra hadde bedre ytelse enn GeForce 3 i 3dmark 2000? 3dmark 2001 gav et litt annet bilde...

 

Når det gjelder doom3 er nok det opengl-basert og har ingenting med saken å gjøre. ID software har ikke for vane å binde seg til ett OS.

Lenke til kommentar
FuSION..

 

Folk som du er nettop problemet.. Folk som har ikke PEILING på hvad dem snakker om.

 

03 er DX9 TEST og når det gjelder DX9 då vil 4600 kortet ditt være knesett. At du tror at benchen feil sier jeg bare.. glad at du er ikke en forsker.. bare blir sur hvis du får ikke de resultater som DU vil ikke som testen viser og jobber så med saken.

 

Simon

 

Når jeg snakket om 3Dmark03 testen så mente jeg dette cheat greiene fra ATI og nvidia som vi ikke egentelig ikke vet hvilke resultat som er riktige... Jeg er ikke sur fordi mitt ti4200 kort får dårlig i 3dmark03, og jeg har heller ikke påstått at det vil yte bra i DX9 spill. Jeg tenkte mer på slik sittuasjonen er nå...

Og forresten.. jeg vet GODT at 3Dmark03 er dx9 test, tror du jeg er helt teit eller?

Lenke til kommentar
Jeg syns heller at alle slike tråder med "NVIDIA JUKSER!!!" "ATI JUKSER!!!" skulle vært stengt for lenge siden.

 

Fordi? Syns du ikke forbrukere bør få vite når et selskap prøver å danne et feil bilde av produktene dems?

Syns de kanskje bør vite det ja, men det er jo mange av disse trådene. Kunne heller slette alle slike tråder, laget 2 nye tråder, en for ATI cheats og en for nvidia cheats. Og så kan forumbrukere slå seg løs på de trådene til de dør.

Lenke til kommentar
"]mortenj, jeg syns du skal kutte ut med å hakke på andres innlegg med x antall siteringer med en spydig kommentar under, og heller ytre dine egne meninger.

Tja, hvor er moroa i det? Nei, litt mer alvorlig, av og til kommer det innlegg som hadde hatt godt av en noe annerledes stil. Det ligger helt sikkert utmerkede meninger bak innlegget til fUsiOn, men han bør ta seg tid til å få de skikkelig fram. Hvorfor reagerer du egentlig på at jeg finner ting ved teksten hans uklart og ønsker å få en utdypning?

 

Egne meninger har i rikelig grad kommet fram tidligere, her og her for eksempel.

 

Tibake til saken: Så alle er helt sikre på at dette er sant? Er det bevist? Eller er det sånn at hvis en kjent HW-side skriver det, så er det sant?

 

Give me a link

Du skal få min mening her, siden jeg ikke har kommentert dette ennå...

 

Jeg er slett ikke sikker på at dette på noe som helst måte kan kvalifisere som juks. Først og fremst savner jeg en 3dmark/3dmurk sammenligning gjort UTEN AF, så vidt jeg husker fra Techreport artikkelen så gjør de den bare med AF. På meg virker det litt som at forskjellene i de to skjermbildene ikke skyldes at nvidia gjør noe uggent med AF men kanskje heller med LOD. Jeg tror dette skyldes at nVidia sjekker om 3dmark kjører, dersom ja så brukes en standardverdi for LOD. Når så Techconnect endrer navn til 3dmurk, så oppdager ikke driveren at 3dmark kjører og den brukervalgte LOD-verdien blir gjeldende. Men det blir bare spekulasjon... (og det må uansett være noe mer som foregår, en endring i LOD vil ikke forklare 10-20% endring i benchmark-resultat)

 

det er nok Anisotropic... For hvis man kjørte uten Ani så var det ingen endring på om man kjørte 3dMurk03.exe eller 3dmark03.exe, men med ani slått på, så var det endringer (benchmark-messig)

Lenke til kommentar
De to bildene som tech-report viser er så like at jeg gjerne hadde tatt det påstått "dårligste" for en liten ytelsesøkning. Jeg er klar over at det ikke er hele poenget her, men den boikotten som enkelte skriker opp om her blir litt absurd i forhold til hva det faktisk er vi snakker om. Hvis man ikke kan se forskjell på bildekvaliteten i et EKTE spill, så er det etter min mening ingenting å skrike opp for.

 

Jeg er litt uenig her. Det jeg reagerer på er egentlig ikke det at bildekvaliteten blir bittelitt dårligere, det jeg reagerer på er at brukerene ikke får noe valg om hvordan de vil at ting skal se ut.

 

Her overstyrer Nvidia hva brukeren selv setter, og ignorerer alle våre krav om å kjøre "korrekt" anisotropic filtering.

 

Jeg hadde ikke hatt noen problem med dette om det fantes en option i driverene til Nvidia som sa noe ala : "Check this box to use slightly lower-quality Anisotripic filtering to gain some performance"

 

Men istedet så tvinger Nvidia denne option'en på i benchmark's som dessverre for mange er avgjørende for valget av grafikkkort.

 

Så i mine øyne så er det engentlig den forkastelige etikken (eller mangelen på sådann) hos Nvidia som gjør meg irritert.

Lenke til kommentar
Gjest
Dette emnet er stengt for flere svar.
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...