Gå til innhold

Test: AMD A10-5800K


Anbefalte innlegg

Skrevet

Ut i fra:

 

Cinebench115_Hyereerbedre.png

HandbrakeVideokonvertering_Lavereerbedreminutter.png

Virker det ut som A8-3870k gir bedre ytelse per klokkefrekvens?

Hvordan er det mulig? A10 5800k @ 4.5 vs A8 3870k @ 3,5 Ghz.

Videoannonse
Annonse
Skrevet (endret)

Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS.

 

Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer.

 

Og hvorfor mangler Sandy Bridge-E-prosessorer i CPU-sammenligningene?

Endret av efikkan
Skrevet (endret)

Ut i fra:

 

Cinebench115_Hyereerbedre.png

HandbrakeVideokonvertering_Lavereerbedreminutter.png

Virker det ut som A8-3870k gir bedre ytelse per klokkefrekvens?

Hvordan er det mulig? A10 5800k @ 4.5 vs A8 3870k @ 3,5 Ghz.

 

Muligens at den ene har 2 l2 cacher med 2mb mens den andre har 4 med 1? Kansje dette gjør en forskjell på den innebygde gpuen? Syns det virket litt rart i grunnen

Endret av Ruarcs
Skrevet

Jeg vil heller si hvorfor er ikke AMD Athlon II X4 640 nevnt her? Da ville man ca vite hvor mye en A10-5800k kan måles mot ca.

 

Prosessorene til AMD er ikke dårlige det er vel heller det at AMD ønsker å droppe eksterne skjermkort problemet er, og man neppe får brukt crossfire ved å sette inn et low end PCI-E skjermkort.

Skrevet

Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS.

 

Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer.

 

Og hvorfor mangler Sandy Bridge-E-prosessorer i CPU-sammenligningene?

 

http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_8.html#sect0

 

Men denne gjør jo akkuratt det vist du setter i 2400Mhz ram..

  • Liker 1
Skrevet

Godt mulig Xbox 720 får en A10 5800k prosessor og 2400Mhz ram, om man da klarer og optimalisere ytelsen kan det godt være man klarer 40 FPS i spill men spørs vel om microsoft vil tilatte brukerne å kunne overklokke maskinvaren.

Skrevet

Ut i fra:

Virker det ut som A8-3870k gir bedre ytelse per klokkefrekvens?

Hvordan er det mulig? A10 5800k @ 4.5 vs A8 3870k @ 3,5 Ghz.

 

Muligens at den ene har 2 l2 cacher med 2mb mens den andre har 4 med 1? Kansje dette gjør en forskjell på den innebygde gpuen? Syns det virket litt rart i grunnen

Piledriver-arkitekturen er nok fortsatt et godt stykke unna å nå tilsvarende IPC som Stars-arkitekturen.

Hvis grafikkytelsene skal kunne kalles brukbar må den takle dagens spill i 1920x1200 med minst 30 FPS.

 

Dette er nok en CPU fra AMD som jeg bare rister på hodet for, de to siste årene har de bare gitt ut dårligere CPUer.

Problemet med grafikken er mest sannsynlig minnebåndbredde, det er en grunn til at vi har GDDR-RAM.

 

Piledriver ser dessverre ikke ut til å være en stor nok forbedring fra Bulldozer, men det er i det minste et steg fremover.

Skrevet

Nei, man kan bygge en meget billig pc ut av dette, spesielt vist man har litt liggendes fra før, som meget mange nå har, hardisker for.eks

Skrevet

Det er nå ca. et halvt år til Haswell kommer ut, og da kommer "avstanden" i grafikkytelse til å synke drastisk...

 

Det blir et spørsmål om pris for mange også.

Skrevet

Oppdater testen deres asap med 2400+ MHz minne HW!

 

de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz.

Skrevet (endret)

Oppdater testen deres asap med 2400+ MHz minne HW!

 

de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz.

 

 

http://www.xbitlabs....cs_8.html#sect0

 

Det er jo andre som har gjort det;-)

 

Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM

Endret av Ruarcs
Skrevet

Veldig kult at vi nå begynner å se integrert grafikk som faktisk begynner å bli brukbar for 3D spill. Dette er allerede brukbart for spill der du ikke trenger voldsomme reaksjoner for å spille, og det blir veldig interessant å se hva "neste steg" i denne utviklingen blir.

 

Det er absolutt et stort plus om du kan få "ok" grafikk med på kjøpet i en laptop mer eller mindre gratis uten å påkoste deg diskrete skjermkort i et bærbart format.

 

-Stigma

Skrevet (endret)

Lurer nesten på om intel vil komme med et:

 

ENX-US15WP-4.jpg

Nano ITX hovedkort med en prosessor som kan måle seg mot i3 2100 og et nvidia GTX 650 skjermkort da begynner det å skje saker om AMD vil neppe klare å konkurere mot dette amd vil vertfall slite. Men vi snakker kanskje om 1-2 år i så fall.

Endret av LMH1
Skrevet

Fint at AMD har begyn på denne "veien" med fusion, jo mere vi krymper jo bedre produkt får vi. tro når vi i år 2020 har en slik chip med sub 10nm cpu/gpu :)

 

menakkurat dette med å låne GPU minne er neppe helt ideelt og bør vel løses for og ta dette helt ut.

Skrevet (endret)

Oppdater testen deres asap med 2400+ MHz minne HW!

 

de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz.

 

 

http://www.xbitlabs....cs_8.html#sect0

 

Det er jo andre som har gjort det;-)

 

Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM

 

Ikke drlig du. Hele 35-45% mer FPS i samtlige spill ved 2400MHz minne, med unntak av Borderlands 2 som har over 50% økning. kjekt å vite

Endret av flowerpot
Skrevet

Dette med minnehastigheter betyr vel at AMDs APUer kommer til å like seg godt med DDR4?

 

Og ting jeg lurer på er om de etterhvert vil prøve å legge mer minne i dem, så du slipper eget minne til grafikkortet og bare har det på selve die'en?

Skrevet

Oppdater testen deres asap med 2400+ MHz minne HW!

 

de nye apu-ene er veldig sultet på minnebandbredde når det kommer til å mate gpu-en med nok bandbredde. hadde vært fint med en test for å se om ytelsen økte linjert med 1333 1600 1866 2133 og 2400mhz.

 

 

http://www.xbitlabs....cs_8.html#sect0

 

Det er jo andre som har gjort det;-)

 

Graphics core performance proved amazingly scalable as the memory frequency and bandwidth increased. By simply raising the memory frequency by 266 MHz, we could boost the fps rate by 10-15%. Of course, as the memory frequency increased, this dependence becomes less prominent, but nevertheless, if you are building a Trinity based system and intend to use its graphics core for 3D applications, you must pay special attention to finding high-speed DDR3 SDRAM

 

Ikke drlig du. Hele 35-45% mer FPS i samtlige spill ved 2400MHz minne, med unntak av Borderlands 2 som har over 50% økning. kjekt å vite

 

Ja, ikke sant, da lønner det seg å betale litt ekstra for rammen, er vel ikke snakk om så mange kronene heller

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...