Gå til innhold

ATI 47xx/48xx-tråden (4770, 4850, 4870, 4890, 4850x2, 4870x2)


FrodeA

Anbefalte innlegg

Videoannonse
Annonse

Synes det kvalifiseres som juks når man klarer å luren en cpu test til og bruke gpu i steden for ja!

 

Oi der økte jeg 10 000 poeng i 3dmark 06 siden ATI lurte cpu testen der til og tro at mitt x1650xt kort i crossfire var cpu. Gikk fra 0.01 fps til 50fps :D

 

Hadde det vært tilfelle tror jeg ATI hadde fått jævla mye pepper...Tror noen ville kalt det for juks ja

Lenke til kommentar
Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall!

 

Takk nVidia for at verden går videre :D

Det er jo ikke snakk om at PhysX hjelper spill - det er snakk om at nVidia sine PhysX kort har en tweak i driveren som gjør at 3DM CPU-benchene ikke kjører helt og alene på CPU.

Lenke til kommentar
Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall!

 

Takk nVidia for at verden går videre :D

Det er jo ikke snakk om at PhysX hjelper spill - det er snakk om at nVidia sine PhysX kort har en tweak i driveren som gjør at 3DM CPU-benchene ikke kjører helt og alene på CPU.

Nå kommer disse driverne aldri til å bli å bli godkjent av FM, så det er kanskje like greit å ikke kaste bort tid på dem. Å la GPU gjøre jobben for PPU eller CPU for å booste scores i en benchmark, blir jo litt eh, teit...

Endret av Ourasi
Lenke til kommentar
Sitter å er på nippet til å bestille 2 stk 3850.

Men har P35 Hk( signatur).

Litt skeptisk til å bruke 4x pci-e sporet. Vet det står ørten steder i forumet om ytelsetapet. Men det kan vel ikke være så mye?

Du mener vel 4850 ikke 3850 tenker jeg... 16/4 configen gir god boost sammenlignet med 1 kort, men taper stort mot 2 16xPCI-E spor. Kjørte selv 16/4 en periode, og det fungerte greit nok, men heftig mange prosent ytelsesøkning ved bytte av hovedkort til 2x16.

Lenke til kommentar
blir jo om om Bjørndalen kunne gå en annen løype enn de andre løperne.

Det er fremdeles samme løype, bare at GPU'en nå avlaster CP'en for flere oppfaver...

 

Synes det kvalifiseres som juks når man klarer å luren en cpu test til og bruke gpu i steden for ja!

 

Hadde det vært tilfelle tror jeg ATI hadde fått jævla mye pepper...Tror noen ville kalt det for juks ja

Hvorfor kan man ikke bare basere resultatene på GPU-testen da? Det går ann å se GPU score i 3DMark, den blir den samme med eller uten PhysX.

 

Kan ikke se at det er juks å avlaste flere oppgaver fra CPU til GPU. Vil heller kalle det et fremskritt...

 

Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall!

 

Takk nVidia for at verden går videre :D

Det er jo ikke snakk om at PhysX hjelper spill - det er snakk om at nVidia sine PhysX kort har en tweak i driveren som gjør at 3DM CPU-benchene ikke kjører helt og alene på CPU.

Det er akuratt det som er poenget!

Du har to muligheter...

1. Bruk PhysX hardware til å avlaste oppgaver fra CPU, noe som gjør at CPU-kraften kan brukes til andre ting. GPU er tross alt mye bedre enn en CPU til disse oppgavene.

2. Benytte den tilgjengelige kraften ekstra til å lage flere fysikk-effekter som dagens CPU'er ikke makter sammen med de andre oppgavene som må¨gjøres.

 

3DMark skal etter hva jeg ha forstått reflektere resultater til et gaming system, da må det vil kunne gi bedre score at den ene typen hardware er mer effektiv til å akselerere fysikk, noe som er en del av mange spill. Blir nesten som å si at det er juks å bruke quad-core prosessorer, de får jo bedre CPU-ytelse...

 

Er nok bare å ta inn over seg at GPU'ene kommer til å kunne gjøre flere og flere oppgaver som vi tidligere bare har gjort på CPU. Her ligger nVIDIA enda en godt stykke forran AMD.

Lenke til kommentar
er driver fusk, alså å legge GPU PhysX i CPU scoren?

 

Nei med driver fusk tenker jeg på å senke eyecandy på driveren for å score bedre (dette har blitt gjort før, av både nvidia og ati), at utviklingen går videre ser jeg bare på som et pluss og ikke fusk.

Endret av simalarion
Lenke til kommentar
blir jo om om Bjørndalen kunne gå en annen løype enn de andre løperne.

Det er fremdeles samme løype, bare at GPU'en nå avlaster CP'en for flere oppfaver...

 

Synes det kvalifiseres som juks når man klarer å luren en cpu test til og bruke gpu i steden for ja!

 

Hadde det vært tilfelle tror jeg ATI hadde fått jævla mye pepper...Tror noen ville kalt det for juks ja

Hvorfor kan man ikke bare basere resultatene på GPU-testen da? Det går ann å se GPU score i 3DMark, den blir den samme med eller uten PhysX.

 

Kan ikke se at det er juks å avlaste flere oppgaver fra CPU til GPU. Vil heller kalle det et fremskritt...

 

Lurer egentlig hvorfor folk bryr seg om det er juks eller ei? Så lenge utviklingen går fremover og aplikasjoner går raskere for MEG, så er JEG fornøyd iallefall!

 

Takk nVidia for at verden går videre :D

Det er jo ikke snakk om at PhysX hjelper spill - det er snakk om at nVidia sine PhysX kort har en tweak i driveren som gjør at 3DM CPU-benchene ikke kjører helt og alene på CPU.

Det er akuratt det som er poenget!

Du har to muligheter...

1. Bruk PhysX hardware til å avlaste oppgaver fra CPU, noe som gjør at CPU-kraften kan brukes til andre ting. GPU er tross alt mye bedre enn en CPU til disse oppgavene.

2. Benytte den tilgjengelige kraften ekstra til å lage flere fysikk-effekter som dagens CPU'er ikke makter sammen med de andre oppgavene som må¨gjøres.

 

3DMark skal etter hva jeg ha forstått reflektere resultater til et gaming system, da må det vil kunne gi bedre score at den ene typen hardware er mer effektiv til å akselerere fysikk, noe som er en del av mange spill. Blir nesten som å si at det er juks å bruke quad-core prosessorer, de får jo bedre CPU-ytelse...

 

Er nok bare å ta inn over seg at GPU'ene kommer til å kunne gjøre flere og flere oppgaver som vi tidligere bare har gjort på CPU. Her ligger nVIDIA enda en godt stykke forran AMD.

 

 

Det blir bare galt å kalle det cpu score. Til og med på de "tipsene" du får i 3dmark06 står det at de har tilrettelagt alt for at det er cpu som skal være flaskehals. Da blir det feil at gpu kommer inn å blander seg. Ved senere versjoner av 3dmark bytter sikkert cpu delen navn til fysikk score.

 

3dmark06 er gammelt og skrøpelig, tar vantage ibruk physix?

 

Nå kommer nok ati med havok fysikk i gpuen om en stund(eller i driverene), noe som appelerer mye mer til meg som er en stor fan av valve sine verk. Fysikk i gpu er en god ting, mens cpu avlstning i 3dmark er "juks", selv om jeg sikkert må bite det i meg at det er kommet for å bli.

Lenke til kommentar
3dmark06 er gammelt og skrøpelig, tar vantage ibruk physix?

 

Fysikk i gpu er en god ting, mens cpu avlstning i 3dmark er "juks", selv om jeg sikkert må bite det i meg at det er kommet for å bli.

Vantage bruker også PhysX...

 

Fysikk er bare en av flere ting som kommer til å bli avlastet på GPU.

Lenke til kommentar
3dmark06 er gammelt og skrøpelig, tar vantage ibruk physix?

 

Fysikk i gpu er en god ting, mens cpu avlstning i 3dmark er "juks", selv om jeg sikkert må bite det i meg at det er kommet for å bli.

Vantage bruker også PhysX...

 

Fysikk er bare en av flere ting som kommer til å bli avlastet på GPU.

 

Raptor, er i og for seg enig med mye, er det samme program altso workload som kjøres på et system, så er det greit, og er det slik at det phsyx hjelper i andre program, eller er det slik at at programmet må være spesielt skrevet for nvida kort for å utnytte dette.

 

men frem til det er alminnelig støtte for denne funksjonen i andre program, vil du da si at å omdefinere reglene for bruk av 3dmark er ok ?? 3dmark skal vel opprinnelig gjenspeile hvordan et system fungerer med andre program, derimot har denne funksjonen god støtte i software mener jeg klart at det bør gjenspeiles i benchmarks som viser systemets ytelse.

 

slik det fremstår nå , tja virker i allefall med 3dmark, selv om det ikke er godkjent.

 

Er tross alt et systems ytelse som teller , ikke en individuell komponent.

Endret av Osse
Lenke til kommentar

Blir ju som om reviewsites tar med Folding @ home när de testar Amd mot Ati. Ati får massa plus för att de får bra score medans Nvidia får minus för att de inte får till någon score alls, även om Nvidia nu kommer med stötte för Folding @ home snart. Jag tror knappast att Nvidia hade vart speciellt glada om alla de sora siterna tog med Folding @ home med i sina beräkningar för att välja det bästa korten.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...