Gå til innhold

Test: AMD FX-8350


Anbefalte innlegg

Vet noen om AMD vannkjøling er noe bedre en consair A70 eller om det følger med FX 8350?

 

Så vidt jeg vet er det Asetek som produserer AMDs vannkjøler, og de produserer også bl.a Corsair H70. Hvilken modell AMD-kjøleren tilsvarer er jeg forøvrig ikke sikker på. (Går vel an å google det, men er lat i dag).

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

AM3+ er jo AM3+ så alle hovedkort som har en AM3+-sokkel skal kunne brukes, men en må nok belage seg på en oppdatering av BIOS for å få støtte til disse prosessorene slik som ved tidligere lanseringer.

 

Ut i fra hva jeg finner her:

 

http://support.asus.com/CPUSupport/List2.aspx?SLanguage=en

 

http://www.asus.com/Motherboards/AMD_AM3Plus/M5A99X_EVO/#CPUS

 

Virker ikke ut enten som listen med bios er oppdatert ennå, ellers må det være kun beta bios foreløpig?

Lenke til kommentar

Hva i helvete?

Hvorfor er "ingen integrert grafikk" et minus?

Denne CPUen typen er ikke ment å ha det...

Er det for tidlig på morgenen?

 

Synd den skuffer.

Får håpe det snart kommer 8 core support på flere spill og programmer uten at man må delegere det selv.

Det kan jo tenkes noen velger å ta med Intel sin integrerte GPU med i et SLI-oppsett ?

Men, om det gir noen særlig ekstra krefter har jeg ikke greie på.

Lenke til kommentar

*snip*

Virker ikke ut enten som listen med bios er oppdatert ennå, ellers må det være kun beta bios foreløpig?

 

Det vil nok dukke opp innen kort tid. Gigabyte har kommet med støtte i sin F10e (beta) ser jeg, så jeg vil forvente at det dukker opp noe hos Asus snart også.

 

 

-Deluze

Lenke til kommentar

Så langt jeg har forstått, er dette CPUen å skaffe vis du driver på med f.eks videoredigering eller streaming på hovedriggen, og vil ikke bruke et cluster for avlasting. Med mindre du har stor nok lommebok til å gå for høy intel model da, og selv da er det tydligvis ikke helt verdt det.

Man skulle tro at dette var tilfellet, men ifølge TTL sin test så var det vist svært vanskeli om ikke umulig å få klokke minnet opp til 1866mhz. Og da er jo hele vitsen med 8 kjerner borte pga bottleneck.

Lenke til kommentar

Jeg skjønner ikke hvorfor klokke for klokke ytelse skal spille noen rolle. Kan du forklare? Jeg synes det er helt andre ting som ytelse/krone, ytelse/watt og ren ytelse som spiller noen rolle.

Jeg er veldig klar over at Mhz/Ghz ikke er ensbetydende for prosessor ytelse. Det er som du nevner flere ting av betydning man må fokusere på som pris/ytelse og ytelse/watt. Men dette med AMD sin nåværende FX minner meg litt om dette :

 

image042.gif

 

Mener du jeg fortsatt tar feil at AMD trenger noe nytt? ;)

Men kjenner jeg deg rett Simen1, så har du sikkert noen bedre argumenter her. Vi har jo diskutert slike ting her på forumet i 10 år nå :p

 

Edit: Den benchen jeg la ved her er bare et eksempel, så ikke legg så stor vekt på den totalt sett - jeg vet at ingen gamer i 1024x768....

Endret av Betroz
  • Liker 1
Lenke til kommentar

Etter litt refleksjon ender jeg opp med å tenke følgende :

 

*Det er ganske imponerende at Amd greier å forbedre ytelsen med ca 20% på 32nm mens intel sin Ivy Bridge ikke er så langt unna, da blir det morsomt å se hvilke resultater man kan få med lavere nm.

 

*Ytelsen har hovedsakelig blitt testet i Windows 7 home på 1333Mhz og man har ikke prøvd å teste ytelsen i Windows 8 hvor scheduleren skal sørge for noe bedre ytelse. Windows 7 med hotfixes kan yte alt fra noen få % til opp mot 10% bedre avhengig av tester som jeg forstår det.

 

Sånn sett så føler jeg at FX 8350 er et godt steg videre i riktig rettning, lavere nm vil sannsynligvis øke hastigheten og ytelse per kjerne samtidlig som TDP synker noe. Nå er jeg ikke noe ekspert på krymping men jeg antar at krympingen til 22nm tillater en videre økning av antall transistorer og ytelse per kjerne.

 

Jeg sitter uansett på et 990FX hovedkort og sånn sett så vil dette være en grei oppgradering fra min 1055T.

  • Liker 1
Lenke til kommentar

Gode poenger Betroz. Jeg er ikke uenig. AMD trenger å oppgradere arkitekturen sin, men jeg tviler på at det skjer før tidligst 2014.

 

Som jeg skrev tidligere må man nesten trenge litt mer fotvarme for at FX-prosessoene skal få full nytte. Ytelsen og ytelse/krone er derimot helt greie.

 

Nå er jeg ikke noe ekspert på krymping men jeg antar at krympingen til 22nm tillater en videre økning av antall transistorer og ytelse per kjerne.

AMDs kommende krymping vil neppe gi lavere TDP. Teoretisk lavere TDP bytter de nok fort mot økte klokkefrekvenser, noe som betyr økt ytelse per kjerne.

 

Flere transistorer kan tas ut på to måter: mer cache eller flere kjerner. Jeg tipper de smeller på en kjernemodul (to tråder) ekstra så det blir totalt 5-6 kjerner og 10-12 tråder. Hver modul får nok 2 MB L2, så det blir totalt 10-12 MB L2. L3 tipper jeg enten forblir på samme nivå som i dag, 8 MB, eller dobles til 16 MB.

 

Et alternativ til å smelle på flere transistorer er å bare krympe uten å legge til noe. Det gir lavere produksjonskostnader og gir de mulighet til å kjempe hardere om de store massene, billigmarkedet. Antagelig velger de både i pose og sekk. Altså flere prosessorstørrelser, akkurat som nå.

 

En ting til vi må regne med på neste generasjon er integrert GPU. Dagens lansering er trolig siste generasjon uten GPU. Det betyr ny sokkel, som muligens kan by på flere nyvinninger.

Endret av Simen1
Lenke til kommentar

Mimrer bare litt mer her :p :

 

AMD sin nåværende FX likner veldig på daværende P4 660 Prescott :p

I spillresultater ja, men ikke i andre programmer. Eneste fellesnevneren Piledriver har med Netburst er høyt strømforbruk mot konkurransen. Antall pipeline-steg for Piledriver er antatt å ligge på rundt 20, rett over Sandy/Ivy Bridge. Forskjellen er at Sandy/Ivy Bridge har langt mer effektiv branch prediction og decode, og µOps cache som forkorter pipeline til 14 steg 80% en branch misprediction oppstår.

 

Intels pipeline er også videre, hver kjerne har flere enheter å arbeide med for å utnytte Hyperthreading og decode-enhetene best mulig. AMDs strategi med å dele på decode, Cache, FPU og branch prediction samtidig som man slanker kjernene og klokker dem høyere er veldig smart på papiret siden det burde levere veldig god enkelttrådet ytelse samtidig som flertrådet ytelse burde være enda bedre, men de har ikke klart å gjennomføre den skikkelig med bulldozer.

Lenke til kommentar

 

Tja....

Jeg ser de har testet de siste CPUene i spill med AMD5870 skjermkort i windows 7 i "lave" oppløsninger.....

Det er omtrent like meningsfull testing som hvor god en ferrari er til å kjøre byggvarer med i mine øyne.

Lenke til kommentar

Simen1 : Jeg antar at bedre utnyttelse av Resonant Mesh Design teknologien til Cyclos Semiconductor som nå benyttes i Piledriver og kommende Cpu'er kan gi opp til 10% - 20% mer å gå på , spesielt med tanke på at denne teknologien ble nylig implementert.

Piledriver ga en økning i frekvens på ca 10% med RMD (ca 300-400Mhz) , det er mulig det er opp til 20% mer å hente på teknologien RMD ( dvs totalt 900 - 1.2Ghz) på samme TDP før krymping noe som vil gi en betraktelig ytelseøkning i forhold til strømforbruk.

Lenke til kommentar

arni90 : Poenget mitt var at AMD har en jobb å gjøre. De har sagt at de ikke vil konkurere mot Intel i high-end segmentet mer, men der svelget de bare noen kameler for syns skyld. Vi forbrukere trenger at AMD kan konkurere mer, og da ikke bare på pris slik som i dag.

 

Jeg er faktisk ikke enig at det er bortkastet å teste CPU'er i spill ved lav oppløsning. Man gjør jo det for å isolere CPU mer, og da spiller det ingen rolle om folk gamer i 1080p eller høyere til vanlig. Kjører man toppkorta til AMD eller nVidia i Crossfire/SLI så ønsker man ikke at CPU blir flaskehalsen, og en svak CPU kan fort bli det selv i 1920x1200. Det optimale er at både CPU og GPU matcher hverandre i den settingen man har. Hvis jeg skulle hatt en rigg med GTX 690 kort i SLI, så ville jeg ikke putta inn en AMD FX-8350 for å si det sånn ;)

Lenke til kommentar

en tanke... kan det være at programmvaren som her er brukt til å teste har med årene favorisert intel ? vi ser det hele tiden med skjermkort. i det ene spillet er amd best og i et annet nvidia. altså det er vanskelig å få software til å fungere like bra på forskjellige prosessorere. software må rett og slett skrives direkte for den cpuen for at den skal yte best mulig.

 

altså viss amd laget prosessoren sin slik at den skulle yte best i Aida64 eller andre test programm kanskje den da ytte dårligere i windows 7.... det er bedre og lettere å lage programm som er tilpasset prosessoren enn å lage prosessor tilpasset alle mulige programmer.

 

AMD og Intel gir begge ut "manualer" på hvordan du skal programmere mest mulig effektivt mot de forskjellige prosessorene de gir ut.

 

savner den tiden jeg satt med en 1.3Ghz T-Bird klokket til 1.6Ghz og med et ATI 9500 pro med unlocked minne pipe lane 128bit til 256bit :p alle som hadde intel på den tiden måtte se seg slått av en billig prosessor og et billig skjermkort. vi trenger minst 2 sterke aktører innen for prosessor markedet.

Lenke til kommentar

Jeg er faktisk ikke enig at det er bortkastet å teste CPU'er i spill ved lav oppløsning. Man gjør jo det for å isolere CPU mer, og da spiller det ingen rolle om folk gamer i 1080p eller høyere til vanlig. Kjører man toppkorta til AMD eller nVidia i Crossfire/SLI så ønsker man ikke at CPU blir flaskehalsen, og en svak CPU kan fort bli det selv i 1920x1200. Det optimale er at både CPU og GPU matcher hverandre i den settingen man har. Hvis jeg skulle hatt en rigg med GTX 690 kort i SLI, så ville jeg ikke putta inn en AMD FX-8350 for å si det sånn ;)

 

Ingen setter inn ett AMD 5870 i en maskin med i5/i7 eller AMD FX CPU heller....

Altså, totalt uavhengig av hvor flaskehalsen vil sitte.

På høyere oppløsninger, er det vanligvis ganske liten forskjell i FPS ytelsen kontra i lave oppløsninger.

Altså CPUen betyr mye mer når du egentlig ikke drar noe særlig av GPUen.

Jeg sier ikke at Intel sine I5 og I7 CPuer ikke er bedre enn AMD, for det er de, men ved meningsløse tester i lave oppløsninger med gamle skjermkort blir ofte forskjellen unødvendig stor.

Lenke til kommentar

Synes det er merkverdig at folk diskuterer teknologi, pipelines, cache osv. når det er kompilatoren som har mest betydning. Når ein teste binære filer på Windows så er det jo Intel kompilatoren som ganske ofte har blitt brukt. F.eks det er eit kjent fenomen at Firefox er ein god del raskare på Windows enn Linux nettopp pågrunn av Intel kompilatoren.

Clang og GCC gir eit heilt anna og mykje meir nøytralt bilete av ytelsesforskjellen mellom Intel og AMD.

 

AMD henger absolutt med, men ikkje for gamere. Derimot for servere, så er AMD overlegen Intel, og der ligger det mykje meir pengar enn hos gamere. Men man kan også diskutere at det finnes mange gamere som IT-ansvarleg/innkjøpsansvarlig, og trur då automatisk sidan Intel er best til gaming så er det også best til servere.

Lenke til kommentar
Simen1 : Jeg antar at bedre utnyttelse av Resonant Mesh Design teknologien til Cyclos Semiconductor som nå benyttes i Piledriver og kommende Cpu'er kan gi opp til 10% - 20% mer å gå på , spesielt med tanke på at denne teknologien ble nylig implementert.

Piledriver ga en økning i frekvens på ca 10% med RMD (ca 300-400Mhz) , det er mulig det er opp til 20% mer å hente på teknologien RMD ( dvs totalt 900 - 1.2Ghz) på samme TDP før krymping noe som vil gi en betraktelig ytelseøkning i forhold til strømforbruk.

Bruker ikke AMD resonant mesh allerede? Jeg synes å huske at det var en av nyhetene i enten Bulldozer eller Fusion. Mulig jeg husker feil.

 

Uansett, hvis det stemmer så er det effektforbruket de oppgir % på. Effektforbruk og klokkefrekvens har ikke en lineær sammenheng. Reduserer man effektforbruket med 20% kan man oversette det til ~10% økt klokkefrekvens, ved samme TDP. NB. Regnestykket er ganske omtrentlig og gjelder bare ved små forskjeller.

 

en tanke... kan det være at programmvaren som her er brukt til å teste har med årene favorisert intel ?

Det kan godt tenkes og testene som siDDis gjenga tyder på det.

 

software må rett og slett skrives direkte for den cpuen for at den skal yte best mulig.

<..>

AMD og Intel gir begge ut "manualer" på hvordan du skal programmere mest mulig effektivt mot de forskjellige prosessorene de gir ut.

Det stemmer ikke helt. La meg presisere. Vanlige programmerere forholder seg bare til kompilatorer. Det er en del kompilatorer å velge mellom og de gir ulik ytelse på ulike CPUer, selv om kildekoden/programmet er det samme. Kompilatoren er en oversetter fra kildekode til maskinkode. Denne gjør en rekke triks for å utnytte maskinvaren best mulig. Man kan blant annet velge å slå på støtte for ulike instruksjonsutvidelser, med den konsekvensen at man mister støtte for prosessorer uten disse utvidelser. SSEx, SIMD, 3DNow! etc. Kompilatorene arrangerere instruksjoner og løkker sånn de tror det er mest effektivt. Hvor godt de lykkes varierer fra kodesnutt til kodesnutt.

 

Det er svært sjeldent kode er så tidskritisk at programutvikleren ser seg tjent med å bruke mye tid på å manuelt oversette noe til maskinkode. Det gjøres nok bare for små, svært tidskritiske løkker, av de store programvareselskapene.

 

Det er kompilatorprodusentene som leser manaler om optimalisering mot ulike prosessorer. Ulike kompilatorprodusenter har ulike samarbeidsforhold til Intel og AMD. Intel har gode ressurser på dette området så jeg har inntrykk av at de fleste kompilatorprodusenter optimaliserer bedre for Intel enn for AMD. Intel og AMD har forsåvidt sine helt egne kompilatorer også, som selvsagt favoriserer egne prosessorer. Intel var borte i en stygg sak her for ~10 år siden, der de med vilje slo av alle moderne instruksjonssettutvidelser dersom maskinkoden kjørte på en AMD-prosessor, selv om AMD-prosessoren støttet utvidelsene. Det gjorde at man ved bruk av intels kompilator fikk et program som yter mye bedre på intel-prosessorer enn på AMD-prosessorer. Jeg husker ikke om det ble rettsak av det, men det var temmelig ampert mellom de to en stund på grunn av det. Så vidt jeg husker var det Toms Hardware Guide som oppdaget det. De fant en måte å lure kompilatoren til å tro at programmet kjørte på Intel-prosessorer selv om den ikke gjor det (CPUID-sjekken ble deaktivert). Ytelsen spratt i været på AMD-prosessoren.

 

Det finnes neppe like åpenbare kjepper i hjulene i dagens kompilatorer, men det kan godt tenkes at i hvert fall intels kompilator optimaliseres for størst mulig differanse mellom AMD og Intel og ikke for best mulig ytelse. Intels kompilator er blant de mest brukte kompilatorene på markedet.

 

Ingen setter inn ett AMD 5870 i en maskin med i5/i7 eller AMD FX CPU heller....

Hvorfor ikke?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...