Gå til innhold

GTX 280 klar ved lansering


Anbefalte innlegg

Videoannonse
Annonse

Nå vet vi jo alle at 3DMark gir automatisk høyere score jo flere kjerner skjermkortet har, akkurat som en Quad automatisk scorer endel høyere enn en Duo, selv om Duo'en er på høyere frekvens.

 

 

Det betyr ikke at det fungerer noe bedre i praksis, er jo nærmest en tradisjon at Radoen kortene scorer bedre enn GeForce kortene, men så er historien stikk motsatt i spill. Det kan ha med driverne til AMD / ATI å gjøre, det kan være fordi "The way it's meant to be played" er såpass utbredt, gud vet hva.

 

 

Bare ta eksemplet med Quad vs Duo, Quad scorer automatisk best i 3DMark, når det kommer til praktisk spill ytelse så vet vi jo alle at en rask Duo slår en treg Quad, selv om 3DMark sier det stikk motsatte.

 

 

Men det å basere noe ut ifra 3DMark burde folk ha lært seg at er en dum idé, nå kommer jo ikke HD 4870X2 før om flere måneder heller, så det burde jo yte bra når det kommer såpass mye senere enn GT280, blir jo spennende å se om 2x HD 4870 hamler opp med 1x GT280. Personlig har jeg mine tvil, etter å ha sett hvor ustabil slike Crossfire løsninger skalerer når det gjelder 2x HD 3870

Endret av RamGuy
Lenke til kommentar
Nå vet vi jo alle at 3DMark gir automatisk høyere score jo flere kjerner skjermkortet har, akkurat som en Quad automatisk scorer endel høyere enn en Duo, selv om Duo'en er på høyere frekvens.

 

 

Det betyr ikke at det fungerer noe bedre i praksis, er jo nærmest en tradisjon at Radoen kortene scorer bedre enn GeForce kortene, men så er historien stikk motsatt i spill. Det kan ha med driverne til AMD / ATI å gjøre, det kan være fordi "The way it's meant to be played" er såpass utbredt, gud vet hva.

 

 

Bare ta eksemplet med Quad vs Duo, Quad scorer automatisk best i 3DMark, når det kommer til praktisk spill ytelse så vet vi jo alle at en rask Duo slår en treg Quad, selv om 3DMark sier det stikk motsatte.

 

 

Men det å basere noe ut ifra 3DMark burde folk ha lært seg at er en dum idé, nå kommer jo ikke HD 4870X2 før om flere måneder heller, så det burde jo yte bra når det kommer såpass mye senere enn GT280, blir jo spennende å se om 2x HD 4870 hamler opp med 1x GT280. Personlig har jeg mine tvil, etter å ha sett hvor ustabil slike Crossfire løsninger skalerer når det gjelder 2x HD 3870

 

Nå er det vel endel forandringer på designet til 4870x2 som ser ut til å slå an positivt for dette kortet. Er ikke helt sikker på de tekniske forandringene, men mye tyder på at det ikke mister halve minnet som ved vanlige CF/SLI løsninger, slik at man faktisk har 1gb minne fullt ut.. MAO et tokjernet/duo skjermkort(?)...

 

Jeg har også et par momenter jeg ikke liker med CF som jeg håper forsvinner med de nye 4000 kortene, værst er disse svake waves som kan observeres i enkelte spill med vsync av, selv om å cappe fps til refresh minimerer dette, forsvinner det ikke helt med mindre man slår på vsync, og det er fryktelig å spille med vsync på med en LCD skjerm.

 

Skulle 4870x2 bli såpass teknisk annerledes, så spørs det om ikke jeg venter med å handle kort til dette dukker opp i hyllene... Men jeg håper jo at CF på 4870 fungerer optimalt siden det er lettere å kjøpe seg ett kort for så å skaffe ett til, også kommer jo singel 4870 noe tidligere...

 

Nå er det jo også et poeng i dette at vantage definitivt ikke er ATI's sterkeste side selv om det sikkert jobbes med dette, og at kortene gjør det vesentlig bedre i spill, i motsetning til de gamlere 3dmarkene som 2006..

 

Personlig så er jeg åpen for det meste, men mye tyder på at et singel HD4870 blir såpass raskt og strømgjerrig, at jeg havner på ett slikt til å begynne med. At singel HD4850 sies å slå 9800GTX i Crysis av alle ting, spesiellt med AF/AA, lover jo godt for 4870 som er betydelig raskere enn 4850....

Endret av Ourasi
Lenke til kommentar

Ja er vel ikke så mye annet å si da enn at vi får vente og se, men som med 38xx serien til ati så er som jeg har forstått det så er det da rimlig og anslå ytelsen på r700 som det samme som 2x4870 i cf, og om jeg husker så hadde 3870x2 en eller to prosent poeng bedre ytelse enn 2x3870 i cf.

 

Da trenger vi bare skjekke noen reviews på 4870cf og sammenligne med gtx280. Pluss anslå bedre "skalering" på r700 kortet om jeg har forstått de tingene over riktig ang cf "problemer" som da r700 vil vær foruten...?

Endret av AllColor
Lenke til kommentar
Nå vet vi jo alle at 3DMark gir automatisk høyere score jo flere kjerner skjermkortet har, akkurat som en Quad automatisk scorer endel høyere enn en Duo, selv om Duo'en er på høyere frekvens.

 

 

Det betyr ikke at det fungerer noe bedre i praksis, er jo nærmest en tradisjon at Radoen kortene scorer bedre enn GeForce kortene, men så er historien stikk motsatt i spill. Det kan ha med driverne til AMD / ATI å gjøre, det kan være fordi "The way it's meant to be played" er såpass utbredt, gud vet hva.

 

 

Bare ta eksemplet med Quad vs Duo, Quad scorer automatisk best i 3DMark, når det kommer til praktisk spill ytelse så vet vi jo alle at en rask Duo slår en treg Quad, selv om 3DMark sier det stikk motsatte.

 

 

Men det å basere noe ut ifra 3DMark burde folk ha lært seg at er en dum idé, nå kommer jo ikke HD 4870X2 før om flere måneder heller, så det burde jo yte bra når det kommer såpass mye senere enn GT280, blir jo spennende å se om 2x HD 4870 hamler opp med 1x GT280. Personlig har jeg mine tvil, etter å ha sett hvor ustabil slike Crossfire løsninger skalerer når det gjelder 2x HD 3870

 

Poenget er riktig, og flere tester har påvist at en doublecore CPU med høyere fekvens slår en quadcore med lavere frekvens. Dette betyr ikke at quadcore ikke har potensialen, heller at utvilere av dagns spill har ikke lagt inn støtte for flere kjerner og dermed spillet kan ikke utnytte den ekstra kraften som tilbys of flere core.

 

Dagens spill kan ikke utnytte extra RAM eller 64bit heller, og flere Windows applikasjoner b.l.a Photoshop, hadde semme problemet med både coudcore, extra RAM og 64bit til å starte med, men nå har utviklere lagt inn nødvendige støtte for disse godbitene og det har ført til en god yteselsøkning.

 

Det samme gjelder for SLI og CF, flere av dagens populære spill kan ikke utnytte den fulle kraften som ligger i en extra GPU, men dette kan fort endre seg i nærmeste fremtiden. Samme gjelder for utnyttelse for extra RAM, quadcore, eller 64bit.

Endret av Sam_Oslo
Lenke til kommentar
Poenget er riktig, og flere tester har påvist at en doublecore CPU med høyere fekvens slår en quadcore med lavere frekvens. Dette betyr ikke at quadcore ikke har potensialen, heller at utvilere av dagns spill har ikke lagt inn støtte for flere kjerner og dermed spillet kan ikke utnytte den ekstra kraften som tilbys of flere core.

Så er det vel bare å kjøpe seg en quad den dagen det faktisk er et spil hvor man merker forskjell på dual og quad. Et slikt spill finnes ikke i dag, og vil antagelig ikke dukke opp på en stund enda. Spill i dage er uansett ikke spesielt CPU-intensive uansett, siden det som regel nesten alltid er skjermkortene som er der det kreves mest ressurser.

 

Hva angår SLI og CF, så er faktisk det noe man merker forbedringen av i et spill i dag, noe du ikke vil merke om du har en likt klokket quad og dual CPU.

Lenke til kommentar
Poenget er riktig, og flere tester har påvist at en doublecore CPU med høyere fekvens slår en quadcore med lavere frekvens. Dette betyr ikke at quadcore ikke har potensialen, heller at utvilere av dagns spill har ikke lagt inn støtte for flere kjerner og dermed spillet kan ikke utnytte den ekstra kraften som tilbys of flere core.

Så er det vel bare å kjøpe seg en quad den dagen det faktisk er et spil hvor man merker forskjell på dual og quad. Et slikt spill finnes ikke i dag, og vil antagelig ikke dukke opp på en stund enda. Spill i dage er uansett ikke spesielt CPU-intensive uansett, siden det som regel nesten alltid er skjermkortene som er der det kreves mest ressurser.

 

Hva angår SLI og CF, så er faktisk det noe man merker forbedringen av i et spill i dag, noe du ikke vil merke om du har en likt klokket quad og dual CPU.

 

 

Unreal tournament 3 er veldig god til å bruke 3 og flere kjerner. Supreme commander er også et slikt spill.

 

Og siden unreal 3 motoren brukes i ekstremt mange spill skal vi ikke se bort ifra at de også liker mange kjerner de også.

 

 

http://www.xbitlabs.com/images/cpu/phenom-x3-8750/ut3.png

 

Her blir 6400+ slått med 20 fps av 3 kjerner på 2,1 ghz. Det er rimelig merkbart.

Endret av O:M:A
Lenke til kommentar
Her blir 6400+ slått med 20 fps av 3 kjerner på 2,1 ghz. Det er rimelig merkbart.

3*2,1 = 6,3

2*3,2 = 6,4

I teorien skulle de yte ganske likt dersom de skalerte perfekt med antall kjerner. Dette tyder på at det er helt andre ting enn antall kjerner som spiller oss et puss. K8-kjerner er jo som kjent annerledes enn K10-kjerner. K10 yter altså bedre av andre grunner en antall kjerner. F.eks på grunn av HT3.0, bedre minnekontroller, den delte cachen, den nye store-load-saken eller noe annet. Ser man på Phenom X3 vs Phenom X4 så kan vi regne gjennomsnittet av X3 8650 og 8450 for å finne ut hva en hypotetisk 8550 som er likt klokket med X4 9550 yter i forhold til X4 9550. Økningen fra X3 på 2,3 GHz til X4 på 2,3 GHz gir altså 5,8% bedre ytelse. 3->4 kjerner gir altså ingen nevneverdig forskjell for Phenom. Legg også merke til at oppløsningen er 1024x768 og dermed fremkaller kunstig store forskjeller. Ved mer normale spilleoppløsninger vil forskjellen bli ennå mindre.

Lenke til kommentar
Her blir 6400+ slått med 20 fps av 3 kjerner på 2,1 ghz. Det er rimelig merkbart.

3*2,1 = 6,3

2*3,2 = 6,4

I teorien skulle de yte ganske likt dersom de skalerte perfekt med antall kjerner. Dette tyder på at det er helt andre ting enn antall kjerner som spiller oss et puss. K8-kjerner er jo som kjent annerledes enn K10-kjerner. K10 yter altså bedre av andre grunner en antall kjerner. F.eks på grunn av HT3.0, bedre minnekontroller, den delte cachen, den nye store-load-saken eller noe annet. Ser man på Phenom X3 vs Phenom X4 så kan vi regne gjennomsnittet av X3 8650 og 8450 for å finne ut hva en hypotetisk 8550 som er likt klokket med X4 9550 yter i forhold til X4 9550. Økningen fra X3 på 2,3 GHz til X4 på 2,3 GHz gir altså 5,8% bedre ytelse. 3->4 kjerner gir altså ingen nevneverdig forskjell for Phenom. Legg også merke til at oppløsningen er 1024x768 og dermed fremkaller kunstig store forskjeller. Ved mer normale spilleoppløsninger vil forskjellen bli ennå mindre.

 

Sant, det er gjort endel forandringer i kjernen til phenom. Men jeg motbeviste bare at 3 og flere kjerner ikke har noe for seg når det kommer til spill. For 1 kjerne k10 på 2,1 blir slått (lett) av 1x3,2 ghz K8. Og at oppløsningen var 1024x768 tvinger flaskehalsen til cpu, men jeg kan være enig at om cpu klarer 120 istedenfor 100 fps ikke har noe særlig å si, men jeg synes det er riktig når man tester cpu, at man setter ting litt på spissen når man bencher. Og ja, det har ikke like mye å si i virkeligheten, men poenget var, 3 kjerner og mer er allerede støttet blandt endel spill. Supreme commander er enda mer glad i 4 kjerner forresten.

 

Her er en liste over alle spill som bruker unreal 3 motoren

Endret av O:M:A
Lenke til kommentar
Sant, det er gjort endel forandringer i kjernen til phenom. Men jeg motbeviste bare at 3 og flere kjerner ikke har noe for seg når det kommer til spill.

Les nå hva jeg skriver. Det er akkurat det du ikke motbeviste. Det diagrammet sier ikke noe om at 3 kjerner gir noe mer ytelse enn 2. Det sier mest sannsynlig at hver enkelt Phenom-kjerne er mer effektiv enn hver enkelt Athlon64 X2-kjerne. Hadde vi hatt en Phenom X2 å teste mot så hadde du nok sett at den yter ganske nært Phenom X3 og ikke så nært Athlon64 X2. Hadde vi hatt en Athlon64 X3 å sammenligne med ville nok den ytt nært Athlon64 X2 og ikke nært Phenom X3.

 

For 1 kjerne k10 på 2,1 blir slått (lett) av 1x3,2 ghz K8.

Testen tester hverken 1 kjerne K10 og eller 1 kjerne K8. Påstanden din er ren fantasi.

 

Og at oppløsningen var 1024x768 tvinger flaskehalsen til cpu, men jeg kan være enig at om cpu klarer 120 istedenfor 100 fps ikke har noe særlig å si, men jeg synes det er riktig når man tester cpu, at man setter ting litt på spissen når man bencher.

Her må vi se litt på poenget med å teste. Er hensikten å vise teoretiske forskjeller eller å vise praktiske forskjeller?

- Dersom man vil ha teoretiske forskjeller så lager man bare en kunstig test som lager den teorien man ønsker å vise. F.eks at 4 kjerner har dobbelt så mange kjerner som 2 og dermed i teorien kan yte dobbelt så bra som 2 i skreddersydde syntetiske tester.

- Dersom man vil ha praktiske forskjeller så tester man slik folk ville brukt prosessoren i praksis. F.eks i spill med mest mulig realistiske betingelser som oppløsning, antall motstandere osv.

 

Hva har den jevne leser mest interesse av? Teori eller praksis?

 

Og ja, det har ikke like mye å si i virkeligheten, men poenget var, 3 kjerner og mer er allerede støttet blandt endel spill.

Støttet er noe helt annet enn å klare å utnytte. De fleste spill støtter nok f.eks 16 kjerner. Så vidt jeg vet klarer ingen å utnytte mer enn 2 kjerner særlig effektivt. F.eks økningen på 5,8% fra 3 til 4 kjerner til tross for at man i teorien kunne fått inntil 33% ytelseøkning fra 3 til 4 kjerner.

Lenke til kommentar
Sant, det er gjort endel forandringer i kjernen til phenom. Men jeg motbeviste bare at 3 og flere kjerner ikke har noe for seg når det kommer til spill.

Les nå hva jeg skriver. Det er akkurat det du ikke motbeviste. Det diagrammet sier ikke noe om at 3 kjerner gir noe mer ytelse enn 2. Det sier mest sannsynlig at hver enkelt Phenom-kjerne er mer effektiv enn hver enkelt Athlon64 X2-kjerne. Hadde vi hatt en Phenom X2 å teste mot så hadde du nok sett at den yter ganske nært Phenom X3 og ikke så nært Athlon64 X2. Hadde vi hatt en Athlon64 X3 å sammenligne med ville nok den ytt nært Athlon64 X2 og ikke nært Phenom X3.

 

For 1 kjerne k10 på 2,1 blir slått (lett) av 1x3,2 ghz K8.

Testen tester hverken 1 kjerne K10 og eller 1 kjerne K8. Påstanden din er ren fantasi.

 

Og at oppløsningen var 1024x768 tvinger flaskehalsen til cpu, men jeg kan være enig at om cpu klarer 120 istedenfor 100 fps ikke har noe særlig å si, men jeg synes det er riktig når man tester cpu, at man setter ting litt på spissen når man bencher.

Her må vi se litt på poenget med å teste. Er hensikten å vise teoretiske forskjeller eller å vise praktiske forskjeller?

- Dersom man vil ha teoretiske forskjeller så lager man bare en kunstig test som lager den teorien man ønsker å vise. F.eks at 4 kjerner har dobbelt så mange kjerner som 2 og dermed i teorien kan yte dobbelt så bra som 2 i skreddersydde syntetiske tester.

- Dersom man vil ha praktiske forskjeller så tester man slik folk ville brukt prosessoren i praksis. F.eks i spill med mest mulig realistiske betingelser som oppløsning, antall motstandere osv.

 

Hva har den jevne leser mest interesse av? Teori eller praksis?

 

Og ja, det har ikke like mye å si i virkeligheten, men poenget var, 3 kjerner og mer er allerede støttet blandt endel spill.

Støttet er noe helt annet enn å klare å utnytte. De fleste spill støtter nok f.eks 16 kjerner. Så vidt jeg vet klarer ingen å utnytte mer enn 2 kjerner særlig effektivt. F.eks økningen på 5,8% fra 3 til 4 kjerner til tross for at man i teorien kunne fått inntil 33% ytelseøkning fra 3 til 4 kjerner.

 

Prøver du bare å være vanskelig eller? Når jeg sier støtter så mente jeg tar ibruk, tar selvkritikk på det pungtet. Men synes det var noe du kunne tenke deg til.

 

Ok, vi skal prøve å teste om en cpu er god til å kjøre spill. Da er det uintresant om skjermkortet dabber av ved 80 fps slik at sempronen(en tenkt sempron viss du lurer) ser ut til å være nesten like god som en e8xxx cpu fordi skjermkortet ikke lenger henger med. Da har vi testet systemet, ikke cpu ytelse. (ja det kan jo hende om du har lyst til å vite hva som skjer når du putter en cpu inn i et system, men jeg fortrekker at it all comes down to the cpu)

 

Og din påstand om at 3,2 ghz k8 ikke er bedre enn 2,1 ghz phenom er ren fantasi overasket meg. DU vil vel ikke påstå at k10 gir mer enn 50% bedre ytelse per kjerne. Jeg viser gjerne bilder fra samme test som sier at 3,2 ghz k8 blir fortrukket av andre motorer(som ikke TAR IBRUK mer enn 2 kjerner eller mindre)

 

http://www.xbitlabs.com/images/cpu/phenom-x3-8750/q4.png

http://www.xbitlabs.com/images/cpu/phenom-x3-8750/hl2.png

http://www.xbitlabs.com/images/cpu/phenom-x3-8750/crysis.png

 

 

Støttet er noe helt annet enn å klare å utnytte. De fleste spill støtter nok f.eks 16 kjerner. Så vidt jeg vet klarer ingen å utnytte mer enn 2 kjerner særlig effektivt. F.eks økningen på 5,8% fra 3 til 4 kjerner til tross for at man i teorien kunne fått inntil 33% ytelseøkning fra 3 til 4 kjerner.

 

Så du mener den fantastiske økningen i ytelse fra athlon x2 til phenom x3 kun har med at UT3 elsker phenom kjernen?

 

Her er forresten 1x phenom vs 1x athlon, ikke akkurat 50% bedre

 

Og jeg liker lite at jeg må bruke såpass lang tid på å forklare såpass enkle ting som at athlon ikke er 50% tregere enn phenom. Av alle forumbrukere burde du vite det bedre enn de fleste Simen.

Lenke til kommentar
Ok, vi skal prøve å teste om en cpu er god til å kjøre spill. Da er det uintresant om skjermkortet dabber av ved 80 fps slik at sempronen(en tenkt sempron viss du lurer) ser ut til å være nesten like god som en e8xxx cpu fordi skjermkortet ikke lenger henger med. Da har vi testet systemet, ikke cpu ytelse.

For å være litt 'vanskelig' igjen. Da har man hverken testet systemet eller CPU. Man har testet skjermkortet. (som er bare en av komponentene i det komplette systemet)

 

Ellers så ER det interessant å vite hvordan totalresultatet blir. Ikke bare CPUen isolert eller skjermkortet isolert. Hvis skjermkortet begrenser ytelsen uansett om man bruker Sempron eller E8xxx så er det et interessant resultat som sier at det er bortkastede penger å oppgradere fra Sempron til E8xxx under de testede betingelsene. Spørsmålet er heller om de testede betingelsene er særlig relevante for folks bruk.

 

Jeg mener videre at FPS-verdier (minimum) over 60 er uinteressante fordi systemet yter mer enn bra nok til å få perfekt flyt på normale 60 Hz LCD-skjermer. Jeg sa 100 FPS (gjennomsnitt) i en annen tråd, men strengt tatt var det litt unyansert så jeg formulerer det litt annerledes her.

 

Og din påstand om at 3,2 ghz k8 ikke er bedre enn 2,1 ghz phenom er ren fantasi overasket meg.

Det har jeg ikke påstått. Les en gang til. Jeg sa at en K10-kjerne på 2,1 GHz yter betydelig bedre enn en K8-kjerne på 3,2 GHz i akkurat denne testen.

 

DU vil vel ikke påstå at k10 gir mer enn 50% bedre ytelse per kjerne.

Jeg kan ikke finne det nøyaktige tallet ut i fra den testen men det virker som 50% ikke er langt unna sannheten i i akkurat den testen.

 

Det virker som du bare regner totalytelse og deler på antall kjerner for å finne ytelsen per kjerne. Sånn går det ikke an å regne når belastningen fordeler seg svært ulikt på kjernene. Den første kjernen jobber kanskje 100%, den andre 50%, den tredje 20% og den fjerne 6%. Nå vet jeg ikke fordelingen over hele rekka siden de testene ikke har testet med noen kjerner skrudd av. Men ytelseøkningen på ~6% fra 3 til 4 kjerner, like kjerner, tyder på at den 3. kjernen heller ikke blir særlig utnyttet. Dermed finnes det bare en hovedforklaring igjen: Det er ikke antall kjerner, men typen kjerner som avgjør ytelsen i akkurat den testen.

 

Jeg viser gjerne bilder fra samme test som sier at 3,2 ghz k8 blir fortrukket av andre motorer(som ikke TAR IBRUK mer enn 2 kjerner eller mindre)

Her oppfører Athlon64 X2 vs. Phenom seg annerledes enn i UT3-testen. Det er tydelig at klokkefrekvensen spiller større rolle enn både antall kjerner og typen kjerner.

 

Så du mener den fantastiske økningen i ytelse fra athlon x2 til phenom x3 kun har med at UT3 elsker phenom kjernen?

Ja. Resultatene taler for seg. Klokkefrekvens har også en god del å si sammen med type kjerner. Antallet kjerner (2-3-4) ser ikke ut til å ha særlig stor innvirkning. Trolig i størrelseorden 20% utnyttelse av den 3. kjernen og 6% utnyttelse av den 4. kjernen.

 

Hvor er UT3-testen du skulle vise fram? Det var jo det vi snakket om, ikke sant?

 

Min konklusjon så langt: Antall kjerner, ut over 2, ser fortsatt ikke ut til å gi nevneverdig økt ytelse. Med andre ord: En E8400 bør gjøre jobben helt fint. Q-serien er ikke noen nødvendighet for god spilleytelse. For AMDs del kan man like gjerne velge Phenom X3 fremfor X4. Når Phenom X2 kommer så vil man trolig få nesten samme ytelse som med likt klokkede X3-modeller.

Lenke til kommentar

Det er helt klart at GPU har mest å si om spilleytelsen, men det er også klart at manglende CPU-kraft kan bli en flaskehals, både for GPU og lasting av DLL, drivere osv.. Hvis game-engine kan utnytte flere kjerner, da er det klart at det er mindre fare for CPU-flaskehals og man kan forvente en bedre spilleytesle av en CPU med flere kjerner.

 

For å ilustere poenget: Når jeg spiller Crysis utnytter game-engine begge kjerner og da har jeg ca 70% CPU-load på min E8400@4ghz, og systemet har 30% ekstra å gå på. Men S.T.A.K.E.R utnytter kun en kjerne og derfor ligger CPU-load på 100% hele tiden. Her kan jeg trygd si at systemet sliter og yter mindre p.g.a bruk av kun en CPU-kjerne. Samme vil gjelde for game-engine som kan utnytte 4, 6 eller 8 kjerner.

Endret av Sam_Oslo
Lenke til kommentar
Ok, vi skal prøve å teste om en cpu er god til å kjøre spill. Da er det uintresant om skjermkortet dabber av ved 80 fps slik at sempronen(en tenkt sempron viss du lurer) ser ut til å være nesten like god som en e8xxx cpu fordi skjermkortet ikke lenger henger med. Da har vi testet systemet, ikke cpu ytelse.

For å være litt 'vanskelig' igjen. Da har man hverken testet systemet eller CPU. Man har testet skjermkortet. (som er bare en av komponentene i det komplette systemet)

 

Ellers så ER det interessant å vite hvordan totalresultatet blir. Ikke bare CPUen isolert eller skjermkortet isolert. Hvis skjermkortet begrenser ytelsen uansett om man bruker Sempron eller E8xxx så er det et interessant resultat som sier at det er bortkastede penger å oppgradere fra Sempron til E8xxx under de testede betingelsene. Spørsmålet er heller om de testede betingelsene er særlig relevante for folks bruk.

 

Jeg mener videre at FPS-verdier (minimum) over 60 er uinteressante fordi systemet yter mer enn bra nok til å få perfekt flyt på normale 60 Hz LCD-skjermer. Jeg sa 100 FPS (gjennomsnitt) i en annen tråd, men strengt tatt var det litt unyansert så jeg formulerer det litt annerledes her.

 

Og din påstand om at 3,2 ghz k8 ikke er bedre enn 2,1 ghz phenom er ren fantasi overasket meg.

Det har jeg ikke påstått. Les en gang til. Jeg sa at en K10-kjerne på 2,1 GHz yter betydelig bedre enn en K8-kjerne på 3,2 GHz i akkurat denne testen.

 

DU vil vel ikke påstå at k10 gir mer enn 50% bedre ytelse per kjerne.

Jeg kan ikke finne det nøyaktige tallet ut i fra den testen men det virker som 50% ikke er langt unna sannheten i i akkurat den testen.

 

Det virker som du bare regner totalytelse og deler på antall kjerner for å finne ytelsen per kjerne. Sånn går det ikke an å regne når belastningen fordeler seg svært ulikt på kjernene. Den første kjernen jobber kanskje 100%, den andre 50%, den tredje 20% og den fjerne 6%. Nå vet jeg ikke fordelingen over hele rekka siden de testene ikke har testet med noen kjerner skrudd av. Men ytelseøkningen på ~6% fra 3 til 4 kjerner, like kjerner, tyder på at den 3. kjernen heller ikke blir særlig utnyttet. Dermed finnes det bare en hovedforklaring igjen: Det er ikke antall kjerner, men typen kjerner som avgjør ytelsen i akkurat den testen.

 

Jeg viser gjerne bilder fra samme test som sier at 3,2 ghz k8 blir fortrukket av andre motorer(som ikke TAR IBRUK mer enn 2 kjerner eller mindre)

Her oppfører Athlon64 X2 vs. Phenom seg annerledes enn i UT3-testen. Det er tydelig at klokkefrekvensen spiller større rolle enn både antall kjerner og typen kjerner.

 

Så du mener den fantastiske økningen i ytelse fra athlon x2 til phenom x3 kun har med at UT3 elsker phenom kjernen?

Ja. Resultatene taler for seg. Klokkefrekvens har også en god del å si sammen med type kjerner. Antallet kjerner (2-3-4) ser ikke ut til å ha særlig stor innvirkning. Trolig i størrelseorden 20% utnyttelse av den 3. kjernen og 6% utnyttelse av den 4. kjernen.

 

Hvor er UT3-testen du skulle vise fram? Det var jo det vi snakket om, ikke sant?

 

Min konklusjon så langt: Antall kjerner, ut over 2, ser fortsatt ikke ut til å gi nevneverdig økt ytelse. Med andre ord: En E8400 bør gjøre jobben helt fint. Q-serien er ikke noen nødvendighet for god spilleytelse. For AMDs del kan man like gjerne velge Phenom X3 fremfor X4. Når Phenom X2 kommer så vil man trolig få nesten samme ytelse som med likt klokkede X3-modeller.

 

 

Det er en god del vi ikke blir enig om, men det at du tror at phenom x2 ville gjort det like godt/littegrann dårligere i ut3(viss jeg har forstått rett) er noe jeg ikke tror noe på. Phenom har kanskje bedre ytelse per mhz per kjerne, men skalerer også meget godt opp til 3 kjerner. Det er realistisk at phenom yter opp til 20 % bedre per kjerne i ut3 og da blir det 2,1*1,2=2,52 , 2,52*3 er ca lik 7,6. 7,6/6,4=1,19. DVS at selv med 100% skalering vil ikke 20% mer ytelse per kjerne per mhz kunne forsvare 20% flere fps per sek. Det vil si at med dine beregninger så måtte vi nærme oss 50% mer ytelse per kjerne per mhz for at skulle stemme. UT3 skalerer bra når det kommer til kjerner, dermed basta.

Lenke til kommentar
Det er en god del vi ikke blir enig om, men det at du tror at phenom x2 ville gjort det like godt/littegrann dårligere i ut3(viss jeg har forstått rett) er noe jeg ikke tror noe på. Phenom har kanskje bedre ytelse per mhz per kjerne, men skalerer også meget godt opp til 3 kjerner. Det er realistisk at phenom yter opp til 20 % bedre per kjerne i ut3 og da blir det 2,1*1,2=2,52 , 2,52*3 er ca lik 7,6. 7,6/6,4=1,19. DVS at selv med 100% skalering vil ikke 20% mer ytelse per kjerne per mhz kunne forsvare 20% flere fps per sek. Det vil si at med dine beregninger så måtte vi nærme oss 50% mer ytelse per kjerne per mhz for at skulle stemme. UT3 skalerer bra når det kommer til kjerner, dermed basta.

Hehe, ja jeg mener at det kan komme så store utslag av effektiviteten til kjernene. La meg prøve å regne på en annen måte. Først antar jeg at kjernene blir utnyttet slik av UT3:

1. 100%

2. 50%

3. 25%

4. 10%

 

En Phenom X3 yter altså 170% av 1 kjerne mens en Phenom X4 yter 185% av 1 kjerne.

 

En hypotetisk Phenom X3 8550 yter 124 fps. Dvs. 124/175 = 71 fps på 1 stk 100% kjerne. Da vil ytelsen skalere med kjernene slik:

Phenom X1: 71 fps

Phenom X2: 71 * 150/100 = 106 fps

Phenom X3: 71 * 175/100 = 124 fps

Phenom X4: 71 * 185/100 = 131 fps

 

Regnestykket stemmer i hvert fall bra for Phenom X3 og X4. Resten er mer usikkert siden vi mangler resultater på det. Med utgangspunkt i denne listen kan vi sammenligne Athlon64 X2 med Phenom X2:

 

Phenom X2 2,1 GHz: 106 fps

Athlon64 X2 3,2 GHz: 104 fps

 

Deler vi på klokkefrekvensen og 1,5 effektiv kjerne får vi relativ ytelse per kjerne per GHz:

 

106/(2,2*1,5)

---------------- = 1,48

104/(3,2*1,5)

 

Med andre ord at Phenom har 48% høyere ytelse per kjerne i UT3. Nå høres dette veldig mye ut men vi må huske på at selv om gjennomsnittet i tester ligger mye lavere så bygger et gjennomsnitt på verdier både over og under gjennomsnittet. UT3 ser ut til å være et tilfelle der Phenom yter langt bedre enn gjennomsnittet i forhold til GHz og antall kjerner. Testen på THG av Supreme Commander på 1 kjerne viste også et eksepsjonelt høyt resultat for Phenom på 1 kjerne i forhold til en likt klokket enkeltkjerne på Athlon64. Faktisk 43% bedre.

Lenke til kommentar
Det er helt klart at GPU har mest å si om spilleytelsen, men det er også klart at manglende CPU-kraft kan bli en flaskehals, både for GPU og lasting av DLL, drivere osv.. Hvis game-engine kan utnytte flere kjerner, da er det klart at det er mindre fare for CPU-flaskehals og man kan forvente en bedre spilleytesle av en CPU med flere kjerner.

Ja, flaskehalsen vil alltid ligge en eller annen plass i systemet. Enten det er klart CPU, klart GPU, klart noe annet eller delt mellom flere av disse.

 

Flere kjerner er selvsagt bedre så lenge man ikke reduserer klokkefrekvensen samtidig, men vi må ha beina på jorda også og se at forskjellen faktisk ikke er så stor heller. F.eks der 4 kjerner yter 6% bedre enn 3, og det i et scenario som har provosert frem større forskjeller enn man vil oppleve ved ekte spilling med mer normale oppløsninger.

 

For å ilustere poenget: Når jeg spiller Crysis utnytter game-engine begge kjerner og da har jeg ca 70% CPU-load på min E8400@4ghz, og systemet har 30% ekstra å gå på.

100% på den ene og 40% på den andre = totalt 70% (eller 140% av 200% om man regner på Linux-måten) Er det dette du mener?

 

Men S.T.A.K.E.R utnytter kun en kjerne og derfor ligger CPU-load på 100% hele tiden. Her kan jeg trygd si at systemet sliter og yter mindre p.g.a bruk av kun en CPU-kjerne.

"systemet sliter på grunn av kun en CPU-kjerne? Så du mener at systemet ville slitt mindre om du økte antall kjerner selv om spillet ikke klarer å utnytte flere kjerner?

 

Samme vil gjelde for game-engine som kan utnytte 4, 6 eller 8 kjerner.

Det er ikke så enkelt for en enkelt prosess, f.eks AI i et spill, ikke kan splittes opp i flere tråder uten videre. Det krever at AI er delt inn på en fornuftig måte slik at belastningen fordeler seg så jevnt som mulig ut over kjernene. Dette er svært vanskelig og en "hellig gral" innen programmering. Kort sagt så hjelper det ikke å pøse på med flere kjerner så lenge en enkelt prosess begrenser hastigheten og den ikke kan deles opp.

Lenke til kommentar
Ja, flaskehalsen vil alltid ligge en eller annen plass i systemet. Enten det er klart CPU, klart GPU, klart noe annet eller delt mellom flere av disse.

 

Flere kjerner er selvsagt bedre så lenge man ikke reduserer klokkefrekvensen samtidig, men vi må ha beina på jorda også og se at forskjellen faktisk ikke er så stor heller. F.eks der 4 kjerner yter 6% bedre enn 3, og det i et scenario som har provosert frem større forskjeller enn man vil oppleve ved ekte spilling med mer normale oppløsninger.

 

Her er vi nok enige.

 

100% på den ene og 40% på den andre = totalt 70% (eller 140% av 200% om man regner på Linux-måten) Er det dette du mener?

 

140% av 200% må det bli, endlige fikk du rote meg i Linux-rotet!

 

"systemet sliter på grunn av kun en CPU-kjerne? Så du mener at systemet ville slitt mindre om du økte antall kjerner selv om spillet ikke klarer å utnytte flere kjerner?

 

Poenget er at hvis game-engine hadda støtte, da kunne det kjøre glattere og bedre. Jeg kjønner ditt poeng også, flere av dagens spille-motorene mangler støtte for flere kjerner. Jeg mener og håper at edette kan forandre seg snart. Jeg tror dette har mye med flere programerings-utfordringer som du har nevnt å gjøre, og i tilleg har det litt med holdninger/kunnskaper hos gameutviklere å gjøre også. Flere av disse nerdene har startet sin programeringskariere i en tid hvor alle CPU hadde kun en kjerne, og derfor flere av disse nerdene har forsatt "hengt seg" der, men jeg tror at de fleste av dem inser at både 6 og 8 kjrerner er på vei og dette kan ikke drøyes lenger. Vi alereade har flere nye spille-motorer som utnytter flere kjerner.

 

Det er ikke så enkelt for en enkelt prosess, f.eks AI i et spill, ikke kan splittes opp i flere tråder uten videre. Det krever at AI er delt inn på en fornuftig måte slik at belastningen fordeler seg så jevnt som mulig ut over kjernene. Dette er svært vanskelig og en "hellig gral" innen programmering. Kort sagt så hjelper det ikke å pøse på med flere kjerner så lenge en enkelt prosess begrenser hastigheten og den ikke kan deles opp.

 

Jeg har også rotet litt i programmering av game-engine og vet at nettop disse tekniske utfordringer har forsinket implementering av støtte for flele kjerner i forhold til andre windows aplikasjoner, feks. Photoshop. Men det betyr ikke at det kommer til å forbli slikt for all evighet, særlige nå som flere har funnet løsningen på dette.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...