Gå til innhold

Test: AMD FX-8150


Anbefalte innlegg

Men hvis vi skulle ta en prissammenlignen mellom core i5 2500k mot Opteron 6174 og vi skulle si at begge skulle gi lik ytelse/pris/effektforbruk?

Jeg skjønner ikke hvorfor du sammenligner desktop prosessorer med serverprosessorer i helt andre prisklasser, optimert for helt andre typer belastning og sokler enn det vi finner på desktop.

 

(Personlig skulle jeg gjerne hatt en arbeidsstasjon med 2-4 billige Opteron 6128 så fremt det fantes overklokkbare hovedkort, men det gjør det ikke)

 

Muligens det er spillene som er laget for 1024*768 oppløsing er det slik at prosessoren blir mest belastet, fordi det er nok basert på Intel skjermkort tar en del av prosessoren.

Det blir litt som å teste hvordan en Lamborghini yter på en teflonbelagt vei i vakuum. Totalt irrelevant for brukerne. Prosessorene bør testes i sitt rette element, så nært normalt bruksmønster som mulig for å gi best mulig inntrykk av hvordan de yter nettopp i normale bruksmønster for normale brukere. Statistisk er det veldig mange som spiller med oppløsninger i størrelseorden 1600x900 til 1920x1200 så de burde konsentrere seg om å teste det. En annen ting er at ingen med vettet i behold kjøper en slik prosessor for å kjøre det sammen med et 5 år gammelt skjermkort, eller quad SLI GTX 580. Pris og alder på skjermkortet bør stå i stil til prosessoren. Gjerne 2-3 forskjellige skjermkort litt over og under prisklassen til prosessoren. Skjermoppløsningen bør også stå i stil til realistiske forhold.

 

CPU 2000 kr + GPU 1000 kr 1600x900, 1920x1080

CPU 2000 kr + GPU 2000 kr 1600x900, 1920x1080 og 2560x1440

CPU 2000 kr + GPU 3000 kr ________, 1920x1080 og 2560x1440

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Dette var en skuffelse ja, jeg skjønner godt hva tofagerl mener.

 

Dette er AMDs toppmodell, og i flere av testene klarer ikke denne 8-kjerners prosessoren å hamle opp med intels snart 3 år gamle 4-kjerner, i7-920. Den bruker i tillegg skremmende mye strøm som er et klart steg i gal retning.

Lenke til kommentar
Men hvis vi skulle ta en prissammenlignen mellom core i5 2500k mot Opteron 6174 og vi skulle si at begge skulle gi lik ytelse/pris/effektforbruk?

Jeg skjønner ikke hvorfor du sammenligner desktop prosessorer med serverprosessorer i helt andre prisklasser, optimert for helt andre typer belastning og sokler enn det vi finner på desktop.

 

(Personlig skulle jeg gjerne hatt en arbeidsstasjon med 2-4 billige Opteron 6128 så fremt det fantes overklokkbare hovedkort, men det gjør det ikke)

 

Muligens det er spillene som er laget for 1024*768 oppløsing er det slik at prosessoren blir mest belastet, fordi det er nok basert på Intel skjermkort tar en del av prosessoren.

Det blir litt som å teste hvordan en Lamborghini yter på en teflonbelagt vei i vakuum. Totalt irrelevant for brukerne. Prosessorene bør testes i sitt rette element, så nært normalt bruksmønster som mulig for å gi best mulig inntrykk av hvordan de yter nettopp i normale bruksmønster for normale brukere. Statistisk er det veldig mange som spiller med oppløsninger i størrelseorden 1600x900 til 1920x1200 så de burde konsentrere seg om å teste det. En annen ting er at ingen med vettet i behold kjøper en slik prosessor for å kjøre det sammen med et 5 år gammelt skjermkort, eller quad SLI GTX 580. Pris og alder på skjermkortet bør stå i stil til prosessoren. Gjerne 2-3 forskjellige skjermkort litt over og under prisklassen til prosessoren. Skjermoppløsningen bør også stå i stil til realistiske forhold.

 

CPU 2000 kr + GPU 1000 kr 1600x900, 1920x1080

CPU 2000 kr + GPU 2000 kr 1600x900, 1920x1080 og 2560x1440

CPU 2000 kr + GPU 3000 kr ________, 1920x1080 og 2560x1440

Det du fort vil se når du gjør testene som du har beskrevet her er at mange prosessorer ser prikk like ut i f.eks 1920x1080 med samme skjermkort. Da burde man vel bare kunne velge den billigste?

 

Logikken ovenfor feiler på det punkt at prosessoren er den delen i PC-en man gjerne bytter sist. Da er det greit å kunne finne den RÅ CPU-ytelsen for å kjøpe den som yter best i forhold til pris, sånn at når spillene om f.eks 2 år er mer CPU-krevende enn spillene i dag, så trenger du kun å bytte GPU.

 

CPU-ytelse er forsåvidt blitt mindre og mindre viktig i spill, det er skjermkortet som betyr mest. Mao, man kommer veldig langt med f.eks 2500k til ca 1500kr. (Det er fortsatt overkill).

 

AMD sin nyeste generasjon hadde jeg ikke kjøpt pga dårlig ytelse i forhold til pengene og strømforbruk (med tilhørende kjøleproblemer og støy).

Lenke til kommentar

Tror forskjellen vi ser her er at Intel tenker tradisjonelt, mens AMD prøver å gå nye veier. Om jeg forstår tanken bak korrekt, så har AMD en ide om at flytt-tall skal gjøres på GPU. Men dette vil kreve OS og slikt som er klar over tanken, eller programmer som er spesifikk laget med det som mål.

 

På en måte har ting snudd 180 siden AMD lanserte en 64-bit utvidelse av X86, mens Intel prøvde å lage en ren 64-bit arkitektur. Nå er det AMD som hopper ut på dypet og håper dem vinner på det, mens Intel prøver å få mest mulig trykk ut av eksisterende kode.

Lenke til kommentar
CPU-ytelse er forsåvidt blitt mindre og mindre viktig i spill, det er skjermkortet som betyr mest. Mao, man kommer veldig langt med f.eks 2500k til ca 1500kr. (Det er fortsatt overkill).

 

Slik jeg ser det tar du generelt feil samtidig som du isolert sett har rett. Det er vel vanskelig å utnytte et moderne skjermkort med en CPU som er en eller 2 generasjoner eldre enn skjermkortet. Dermed har nok Simen1 rett i sin oppstilling. Siste versjon skjermkort krever siste versjon CPU for å få ut sitt potensiale på en effektiv måte, enkelt sagt.

Endret av -alias-
Lenke til kommentar

Dermed har nok Simen1 rett i sin oppstilling. Siste versjon skjermkort krever siste versjon CPU for å få ut sitt potensiale på en effektiv måte, enkelt sagt.

 

Nå er det vel CPU sin oppgave, og gi oppgave til skjermkortet, ram for å laste spillet.

 

Er nok slik at prosessoren gjør lite av jobben hvis skjermkortet klarer oppgaven.

 

Er det noen som gi litt detaljer hva prosessoren faktisk gjør i spill, kanskje den pakker ut data til ram eller noe slikt?

Lenke til kommentar
Det du fort vil se når du gjør testene som du har beskrevet her er at mange prosessorer ser prikk like ut i f.eks 1920x1080 med samme skjermkort. Da burde man vel bare kunne velge den billigste?

Ja! (Seriøst, jeg mener det)

 

Logikken ovenfor feiler på det punkt at prosessoren er den delen i PC-en man gjerne bytter sist. Da er det greit å kunne finne den RÅ CPU-ytelsen for å kjøpe den som yter best i forhold til pris, sånn at når spillene om f.eks 2 år er mer CPU-krevende enn spillene i dag, så trenger du kun å bytte GPU.

Det man bytter sjeldnest er vel skjerm, høyttalersett, PSU, kabinett og deretter hovedkort. Sats gjerne på to prosessorer og to skjermkort i levetiden til ett hovedkort, hvis man skal henge godt med i svingene på de nyeste spillene hele tiden. Hvis det blir for tett og dyrt så går man gjerne for ny prosessor, hovedkort og skjermkort samtidig f.eks med 2-3 års mellomrom.

 

Kjøp PC for å spille spillene som er på markedet nå, ikke for spillene som er forventet å komme i framtida. Man vet ingenting om hvilken maskinvare de vil kreve for å kjøre godt. Legger man f.eks noen hundrelapper ekstra i prosessoren for å være "framtidssikker" så er det slett ikke sikkert at det vil være nok til det nye spillet. Eventuelt kan den rimeligere prosessoren vise seg å være mer enn nok. Det er alt for mye usikkerhet rundt "framtidssikring" av PCer. Kjøp noe for nåtiden og oppgrader bare hvis det er nødvendig når nye spill lanseres. Ny prosessor og nytt skjermkort kan påregnes i levetiden til et hovedkort, men ikke kjøp før du har lest ytelsetester og vet om du faktisk trenger det i det nye spillet.

 

Tror forskjellen vi ser her er at Intel tenker tradisjonelt, mens AMD prøver å gå nye veier. Om jeg forstår tanken bak korrekt, så har AMD en ide om at flytt-tall skal gjøres på GPU. Men dette vil kreve OS og slikt som er klar over tanken, eller programmer som er spesifikk laget med det som mål.

Jepp, det er en litt dristig strategi. Jeg håper det går bra fordi kjøring av kritiske og ytelsekrevende ting på GPU kan gi enorme ytelseøkninger, sammenlignet med å forbedre prosessorene. Foreløbig leder Nvidia på GPGPU, men AMD kommer med nytt design på nyåret (Radeon HD 7900-serien) som bytter ut VLIW4 med CGN, som skal være mye mer GPGPU-vennlige kjerner. Håper den strategien fungerer bra, for heltallsdelen av bulldozer (Integer) er slett ikke så verst. Den delte FPU-delen trekker ned totalinntrykket.

 

På en måte har ting snudd 180 siden AMD lanserte en 64-bit utvidelse av X86, mens Intel prøvde å lage en ren 64-bit arkitektur. Nå er det AMD som hopper ut på dypet og håper dem vinner på det, mens Intel prøver å få mest mulig trykk ut av eksisterende kode.

Intels rene 64bit arkitektur (Itanium) har veldig lite med desktop å gjøre. Intels 64bit påbygning av x86 er minst like mye lappverk som AMDs. Husk at AMD var først ute med 64 bit og prosessorene ga svært konkurransedyktig ytelse og pris til spillere og entusiaster i sin tid. Det tok lang tid før Intel klarte å mekke sammen noe 64bit lappverk på sin Pentium 4 og ytelsen i 64 bit var ennå dårligere enn i 32 bit. Det var først med Core 2 Duo de fikk 64 bit lappverket til å yte bra. Netburst egnet seg rett og slett ikke. Core 2 Duo arvet faktisk mindre fra Pentium 4 enn fra Pentium 3. Pentium 4 ble et blindspor. Core 2 Duo ble som kjent en suksess, men først og fremst på grunn av 32 bit ytelsen, selv om 64 bit også ga god ytelse. Det var først et par år etter Core 2 Duo at 4 GB ram og 64 bit OS begynte å bli vanlig.

Lenke til kommentar
På en måte har ting snudd 180 siden AMD lanserte en 64-bit utvidelse av X86, mens Intel prøvde å lage en ren 64-bit arkitektur. Nå er det AMD som hopper ut på dypet og håper dem vinner på det, mens Intel prøver å få mest mulig trykk ut av eksisterende kode.

Intels rene 64bit arkitektur (Itanium) har veldig lite med desktop å gjøre. Intels 64bit påbygning av x86 er minst like mye lappverk som AMDs. Husk at AMD var først ute med 64 bit og prosessorene ga svært konkurransedyktig ytelse og pris til spillere og entusiaster i sin tid. Det tok lang tid før Intel klarte å mekke sammen noe 64bit lappverk på sin Pentium 4 og ytelsen i 64 bit var ennå dårligere enn i 32 bit. Det var først med Core 2 Duo de fikk 64 bit lappverket til å yte bra. Netburst egnet seg rett og slett ikke. Core 2 Duo arvet faktisk mindre fra Pentium 4 enn fra Pentium 3. Pentium 4 ble et blindspor. Core 2 Duo ble som kjent en suksess, men først og fremst på grunn av 32 bit ytelsen, selv om 64 bit også ga god ytelse. Det var først et par år etter Core 2 Duo at 4 GB ram og 64 bit OS begynte å bli vanlig.

1. Om jeg husker rett så endte Intel opp med å lisensiere 64-bit instruksutvidelsen fra AMD. Og selv om Itanium ikke var rettet mot desktop i første omgang så var det vel ett sterkt hint fra Intel at det var veien fremover for alle deres produkter, helt til AMD slapp kombo-cpuene og en fikk muligheten til å kjøpe inn 32-bit nå og oppdatere til 64 via en reinstallasjon av os nærmest.

 

2. tror deler av halehenget på 64-bit desktop var pga Windows. XP-64 og XP-32 gikk ikke helt sammen om jeg husker rett. og Vista er ett kapitel for seg. Virker som det først med Win7 at ett Windows OS som kan håndtere både 32 og 64 på en installasjon er på plass, og som brukerne er villige til å omfavne.

Lenke til kommentar

Ja, Windows har hengt litt etter på x86-64. XP 64 bit var et glimrende OS i seg selv, men mangelen på drivere gjorde det trøblete for mange. Det skal forsåvidt ikke Microsoft ha skylden for. Det var driverprodusentenes skyld.

 

Mulig jeg misforstå deg litt på rekkefølge, men slik var det omtrent:

 

2001: Intel Itanium ren 64 bit, ikke x86, kun high end server

2003: AMD med x86-64 utvidelse (32 og 64 bit om hverandre)

2004: Intel koiperer AMDs x86-64 utvidelse (32 og 64 bit om hverandre) med elendig 64 bit ytelse

2006: Intel lanserer Core 2-serien med ytelsefiks for AMDs x86-64 utvidelse (32 og 64 bit om hverandre)

2009: Microsoft lanserer Windows 7 og gjør x86-64 bit utgavene standard hos OEM. Det gjør at bruken av x86-64 utvidelsene stiger drastisk. Dette sammenfaller med at 4 GB ram begynner å bli vanlig.

 

Intel Itanium med sin rene IA64 arkitektur har levd sitt eget liv helt på siden av dette. Det har fortsatt ingenting med desktop å gjøre.

Endret av Simen1
Lenke til kommentar

1. Om jeg husker rett så endte Intel opp med å lisensiere 64-bit instruksutvidelsen fra AMD.

AMD og Intel gjorde en deal for mange år siden hvor de kan bruke hverandres x86-patenter uten å måtte betale for det. Det er en grunn til at det er SSE-støtte på AMD prosessorer osv.

Endret av blackbrrd
Lenke til kommentar

10-20w?! Hadde det enda vært så lite...

 

 

En folderigg med kombinasjonen i7 2600K klokket til 4.6GHz & P8Z68-V PRO trekker 180 Watt fra veggen med 100% load. Med Buldozer i riggen vil den trekke 440 Watt, som er en økning på 260 Watt

 

Hehe..

Så at det ikke var snakk om 10-20w, men heller 250-300w.

Men igjen hvorfor er dette et tema?

 

Er det fordi noen er så bevisst på miljøet og forbruket, eller er det fordi det er en merknad på hvordan psu man velger ved kjøp av ny pc eller oppgradering?

 

Ikke at jeg skal starte en diskusjon ang dette, men er litt nysgjerrig på hvorfor dette er negativt på en test.

Lenke til kommentar

10-20w?! Hadde det enda vært så lite...

 

 

En folderigg med kombinasjonen i7 2600K klokket til 4.6GHz & P8Z68-V PRO trekker 180 Watt fra veggen med 100% load. Med Buldozer i riggen vil den trekke 440 Watt, som er en økning på 260 Watt

 

Hehe..

Så at det ikke var snakk om 10-20w, men heller 250-300w.

Men igjen hvorfor er dette et tema?

 

Er det fordi noen er så bevisst på miljøet og forbruket, eller er det fordi det er en merknad på hvordan psu man velger ved kjøp av ny pc eller oppgradering?

 

Ikke at jeg skal starte en diskusjon ang dette, men er litt nysgjerrig på hvorfor dette er negativt på en test.

Strømforbruk, varme, avkjøling og støy er stikkordene.

 

Økt strømforbruk - krever dyrere PSU og gir mer varm

Mer varme - krever bedre avkjøling (dyrere)

Bedre avkjøling gir gjerne mer støy (større vifter, må kjøre fortere)

  • Liker 1
Lenke til kommentar

Så i prinsippet kunne man hatt 2 stk Phenom II X6 prosessorer så ville de gitt langt bedre ytelse? Nå har Opteron 6174 langt lavere effektforbruk.

Til typisk server-bruk ja, til det meste av skrivebordsbruk er det totalt bortkastet.

 

 

Har bare en liten morsom bemerkning angående CPU tester i spill.

(Gjelder alle sider jeg har sett)

Intel er overlegent best på 1024*768 og dårligere oppløsning.

Hvem bruker slike oppløsninger?

Er de mer relevante for forbrukerene enn f.eks en brødskive med ost?

Neppe....

Hadde vært greiere med flere oppløsninger og settings som er relevante og kanskje 2 forskjellige skjermkort.

Ved slike oppløsninger blir CPU en stor begrensning, men det er totalt irrelevant siden ingen i sin rette forstand spiller på denne oppløsningen med slik maskinvare.

 

 

Det man bytter sjeldnest er vel skjerm, høyttalersett, PSU, kabinett og deretter hovedkort. Sats gjerne på to prosessorer og to skjermkort i levetiden til ett hovedkort, hvis man skal henge godt med i svingene på de nyeste spillene hele tiden. Hvis det blir for tett og dyrt så går man gjerne for ny prosessor, hovedkort og skjermkort samtidig f.eks med 2-3 års mellomrom.

 

Kjøp PC for å spille spillene som er på markedet nå, ikke for spillene som er forventet å komme i framtida. Man vet ingenting om hvilken maskinvare de vil kreve for å kjøre godt. Legger man f.eks noen hundrelapper ekstra i prosessoren for å være "framtidssikker" så er det slett ikke sikkert at det vil være nok til det nye spillet. Eventuelt kan den rimeligere prosessoren vise seg å være mer enn nok. Det er alt for mye usikkerhet rundt "framtidssikring" av PCer. Kjøp noe for nåtiden og oppgrader bare hvis det er nødvendig når nye spill lanseres. Ny prosessor og nytt skjermkort kan påregnes i levetiden til et hovedkort, men ikke kjøp før du har lest ytelsetester og vet om du faktisk trenger det i det nye spillet.

Til spillbruk så har det relativt lite for seg å bytte CPU, spesielt siden sokler endrer seg. De siste 4+ årene har CPU-utviklingen stått relativt stille mens skjermkortene har utviklet seg veldig raskt, samtidig har spill blitt mindre og mindre avhengige av CPU. Så min anbefaling er å kjøpe en CPU kraftig nok til hele levetiden av maskinen (litt kraftigere enn "behovet" i dag), men samtidig legge pengene i skjermkort.

 

Men det er et veldig godt prinsipp å kjøpe maskinvare etter dagens behov, for det er tross alt mye billigere å kjøpe et nytt relativt kraftig skjermkort om to år fremfor å kjøpe et superkort nå som skal holde til da.

 

Tror forskjellen vi ser her er at Intel tenker tradisjonelt, mens AMD prøver å gå nye veier. Om jeg forstår tanken bak korrekt, så har AMD en ide om at flytt-tall skal gjøres på GPU. Men dette vil kreve OS og slikt som er klar over tanken, eller programmer som er spesifikk laget med det som mål.

Jepp, det er en litt dristig strategi. Jeg håper det går bra fordi kjøring av kritiske og ytelsekrevende ting på GPU kan gi enorme ytelseøkninger, sammenlignet med å forbedre prosessorene. Foreløbig leder Nvidia på GPGPU, men AMD kommer med nytt design på nyåret (Radeon HD 7900-serien) som bytter ut VLIW4 med CGN, som skal være mye mer GPGPU-vennlige kjerner. Håper den strategien fungerer bra, for heltallsdelen av bulldozer (Integer) er slett ikke så verst. Den delte FPU-delen trekker ned totalinntrykket.

Dere er inne på noe, flyttallsdelen av CPUen utgjør en veldig stor del og "koster" mye, så det er logisk å redusere antall flyttalsenheter. Det bemerkningsverdige er at hver "kjerne" hos AMD fremdeles tar større plass enn hos Intel, så noen dårlige designvalg har de gjort der. Jeg ser frem til en god analyse av pipeline for å se om Bulldozer sine moduler har en liten svakhet i designet ved deling av fpu eller om hele implementasjonen er dårlig. Jeg synest uansett det er en dårlig tendens at pipeline ser ut til å bli lenger. Uansett blir det feil strategi å skalere med flere kjerner for skrivebordet.

 

Jeg er mest bekymret for utviklingen videre, den står praktisk talt stille i dag. ARM vil ikke gi reell konkurranse i dette segmentet før om 4-5++ år, og vil dessuten ha de samme problemene når klokkefrekvensene blir høye. Det er på tide at både Intel og AMD tenker nytt i form av hvordan en pipeline implementeres, jeg kunne sett for meg en CPU som gjorde mer threading direkte og alt av større beregninger på SIMD. (men det er ønsketenkning fra min side)

Lenke til kommentar

Det blir litt som å teste hvordan en Lamborghini yter på en teflonbelagt vei i vakuum. Totalt irrelevant for brukerne. Prosessorene bør testes i sitt rette element, så nært normalt bruksmønster som mulig for å gi best mulig inntrykk av hvordan de yter nettopp i normale bruksmønster for normale brukere. Statistisk er det veldig mange som spiller med oppløsninger i størrelseorden 1600x900 til 1920x1200 så de burde konsentrere seg om å teste det. En annen ting er at ingen med vettet i behold kjøper en slik prosessor for å kjøre det sammen med et 5 år gammelt skjermkort, eller quad SLI GTX 580. Pris og alder på skjermkortet bør stå i stil til prosessoren. Gjerne 2-3 forskjellige skjermkort litt over og under prisklassen til prosessoren. Skjermoppløsningen bør også stå i stil til realistiske forhold.

 

CPU 2000 kr + GPU 1000 kr 1600x900, 1920x1080

CPU 2000 kr + GPU 2000 kr 1600x900, 1920x1080 og 2560x1440

CPU 2000 kr + GPU 3000 kr ________, 1920x1080 og 2560x1440

 

Eksempel: cpuA gir 20 fps flere enn cpuB i lav oppløsning, mens den gir 5 - 0 fps mer i høy oppløsning. Prisen er lik for begge cpu`ene. Man kan argumentere fram og tilbake om at spilleren ikke kommer til å bruke de lave oppløsningene osv, men det er allikevel to store innvendinger:

Produsenten som har produsert den beste CPU`en får ikke uttelling for det, og for de fleste gamere går det to skjermkort pr. CPU. Med et skjermkort som er tilnærmet dobbelt så raskt som det gamle, så vil valget som tidligere virket ubetydelig, plutselig ha stor betydning.

Jeg har sett du har argumentert flere ganger for å teste i høy oppløsninger, men skulle gjerne hatt en konkret grunn til hvorfor det er bedre. Hva kan tester i høy oppløsning gi av informasjon som ikke tester i lav oppløsning kan?

Endret av hardrock_ram
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...