Gå til innhold

Test: AMD A10-5800K


Anbefalte innlegg

Videoannonse
Annonse

Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS.

 

Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer.

 

Og hvorfor mangler Sandy Bridge-E-prosessorer i CPU-sammenligningene?

Endret av efikkan
Lenke til kommentar

Ut i fra:

 

Cinebench115_Hyereerbedre.png

HandbrakeVideokonvertering_Lavereerbedreminutter.png

Virker det ut som A8-3870k gir bedre ytelse per klokkefrekvens?

Hvordan er det mulig? A10 5800k @ 4.5 vs A8 3870k @ 3,5 Ghz.

 

Muligens at den ene har 2 l2 cacher med 2mb mens den andre har 4 med 1? Kansje dette gjør en forskjell på den innebygde gpuen? Syns det virket litt rart i grunnen

Endret av Ruarcs
Lenke til kommentar

Jeg vil heller si hvorfor er ikke AMD Athlon II X4 640 nevnt her? Da ville man ca vite hvor mye en A10-5800k kan måles mot ca.

 

Prosessorene til AMD er ikke dårlige det er vel heller det at AMD ønsker å droppe eksterne skjermkort problemet er, og man neppe får brukt crossfire ved å sette inn et low end PCI-E skjermkort.

Lenke til kommentar

Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS.

 

Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer.

 

Og hvorfor mangler Sandy Bridge-E-prosessorer i CPU-sammenligningene?

 

http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_8.html#sect0

 

Men denne gjør jo akkuratt det vist du setter i 2400Mhz ram..

  • Liker 1
Lenke til kommentar

Ut i fra:

Virker det ut som A8-3870k gir bedre ytelse per klokkefrekvens?

Hvordan er det mulig? A10 5800k @ 4.5 vs A8 3870k @ 3,5 Ghz.

 

Muligens at den ene har 2 l2 cacher med 2mb mens den andre har 4 med 1? Kansje dette gjør en forskjell på den innebygde gpuen? Syns det virket litt rart i grunnen

Piledriver-arkitekturen er nok fortsatt et godt stykke unna å nå tilsvarende IPC som Stars-arkitekturen.

Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS.

 

Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer.

Problemet med grafikken er mest sannsynlig minnebåndbredde, det er en grunn til at vi har GDDR-RAM.

 

Piledriver ser dessverre ikke ut til å være en stor nok forbedring fra Bulldozer, men det er i det minste et steg fremover.

Lenke til kommentar

Oppdater testen deres asap med 2400+ MHz minne HW!

 

de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz.

 

 

http://www.xbitlabs....cs_8.html#sect0

 

Det er jo andre som har gjort det;-)

 

Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM

Endret av Ruarcs
Lenke til kommentar

Veldig kult at vi nå begynner å se integrert grafikk som faktisk begynner å bli brukbar for 3D spill. Dette er allerede brukbart for spill der du ikke trenger voldsomme reaksjoner for å spille, og det blir veldig interessant å se hva "neste steg" i denne utviklingen blir.

 

Det er absolutt et stort plus om du kan få "ok" grafikk med på kjøpet i en laptop mer eller mindre gratis uten å påkoste deg diskrete skjermkort i et bærbart format.

 

-Stigma

Lenke til kommentar

Lurer nesten på om intel vil komme med et:

 

ENX-US15WP-4.jpg

Nano ITX hovedkort med en prosessor som kan måle seg mot i3 2100 og et nvidia GTX 650 skjermkort da begynner det å skje saker om AMD vil neppe klare å konkurere mot dette amd vil vertfall slite. Men vi snakker kanskje om 1-2 år i så fall.

Endret av LMH1
Lenke til kommentar

Oppdater testen deres asap med 2400+ MHz minne HW!

 

de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz.

 

 

http://www.xbitlabs....cs_8.html#sect0

 

Det er jo andre som har gjort det;-)

 

Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM

 

Ikke drlig du. Hele 35-45% mer FPS i samtlige spill ved 2400MHz minne, med unntak av Borderlands 2 som har over 50% økning. kjekt å vite

Endret av flowerpot
Lenke til kommentar

Oppdater testen deres asap med 2400+ MHz minne HW!

 

de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz.

 

 

http://www.xbitlabs....cs_8.html#sect0

 

Det er jo andre som har gjort det;-)

 

Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM

 

Ikke drlig du. Hele 35-45% mer FPS i samtlige spill ved 2400MHz minne, med unntak av Borderlands 2 som har over 50% økning. kjekt å vite

 

Ja, ikke sant, da lønner det seg å betale litt ekstra for rammen, er vel ikke snakk om så mange kronene heller

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...