Gå til innhold

Test: AMD A10-5800K


Anbefalte innlegg

Videoannonse
Annonse

Hvorfor rangerer dere etter max mulig forbruk og ikke etter det den bruker i hvile ? Samme med temperatur. Det ideelle hadde jo vært at hvileforbruket var null med et høyt max forbruk. En slik ville jo komme dårligst ut. - Nesten samme med temperatur. Det er jo temperaturen i hvile som er viktig. Load temperaturen er ikke så viktig hvis den er håndterbar.

Lenke til kommentar

A10-5800k er spesifisert for 1866MHz DDR3-minne, burde dere ikke testet med slike hastigheter framfor å bruke 1333MHz minne?

Spesielt når xbit labs har testet og funnet ut at grafikkdelen skalerer meget bra med raskere minne.

 

 

Det er jo temperaturen i hvile som er viktig. Load temperaturen er ikke så viktig hvis den er håndterbar.

Temperaturavlesninger ved idle er totalt ubrukelig, jo lengre vekke fra makstemperaturen man kommer, jo mindre nøyaktig blir sensorene.

Endret av arni90
  • Liker 1
Lenke til kommentar

A10-5800k er spesifisert for 1866MHz DDR3-minne, burde dere ikke testet med slike hastigheter framfor å bruke 1333MHz minne?Spesielt når xbit labs har testet og funnet ut at grafikkdelen skalerer meget bra med raskere minne.

Det er jo temperaturen i hvile som er viktig. Load temperaturen er ikke så viktig hvis den er håndterbar.
Temperaturavlesninger ved idle er totalt ubrukelig, jo lengre vekke fra akstemperaturen man kommer, jo mindre nøyaktig blir sensorene.

 

Det var det jeg trodde jeg hadde hørt, at man kunne få så mye som rundt 10%økning i fps med å klokke rammen...rart å da kjøre på 1333 med "lavere" timings, bare fordi det er amd mon tro? At de tror at det alltid lønner seg med lav timing vs Hz...

Lenke til kommentar

Det var det jeg trodde jeg hadde hørt, at man kunne få så mye som rundt 10%økning i fps med å klokke rammen...rart å da kjøre på 1333 med "lavere" timings, bare fordi det er amd mon tro? At de tror at det alltid lønner seg med lav timing vs Hz...

http://www.xbitlabs.com/articles/graphics/display/amd-trinity-graphics_8.html#sect0

Ser ut som mer enn 10% her ;)

Lenke til kommentar

Det var det jeg trodde jeg hadde hørt, at man kunne få så mye som rundt 10%økning i fps med å klokke rammen...rart å da kjøre på 1333 med "lavere" timings, bare fordi det er amd mon tro? At de tror at det alltid lønner seg med lav timing vs Hz...

http://www.xbitlabs....cs_8.html#sect0

Ser ut som mer enn 10% her ;)

 

Ja, var det jeg faktisk trodde, men jeg sa 10 for å ikke bli slaktet for å overdrive,hehe

 

Edit: 23 til 34 fps på borderlands 2 faktisk... 1333MHz vs 2400Mhx

Endret av Ruarcs
Lenke til kommentar

Hvis man ikke har store krav til grafikk, eller er en typisk "casual gamer" så er dette en god løsning. Det er bare synd at AMD ikke har fått dette ut fortere.

 

Det er nå ca. et halvt år til Haswell kommer ut, og da kommer "avstanden" i grafikkytelse til å synke drastisk...

 

Noen idikasjon på hvor haswell kommer til å ligge i grafikk ytelse?

Lenke til kommentar

Det er jo de faktiske forhold som er viktige her. Ikke hvor misvisende enkelte sensorer kan være i de forskjellige HK. At idel temp er lav er det eneste riktige å sammenlikne så generelt som i disse radene. Og det gjelder i ennå større grad effektavsetningen.

Nei.

Temperatursensorene ligger på selve brikka, ikke på hovedkortet, disse sensorene er laget for å være "nøyaktige" for bruk til throttling og Turbo, ikke for målinger ved idle.

Strømforbruket måles med en effektmåler fra veggen og jeg gjetter på at HW.no bruker samme PSU for alle oppsettene, ergo gir disse relevant informasjon i forhold til load- og idle-forbruk.

Lenke til kommentar

Noen idikasjon på hvor haswell kommer til å ligge i grafikk ytelse?

Haswell GT2 (likt antall EU som Ivy Bridge) ville få opp til 30% bedre ytelse var det de sa og demonstrerte.

 

Haswell kommer også i en GT3 variant med dobbelt så mange EU (les. ALUer) og med eget minne (les buffer) på CPU-pakken.

 

Testet blant annet BF3 og et par andre spill på IDF i år, og kan bekrefte at ting gikk helt glatt i 1080p med mesteparten av "eye candy" på.

Endret av HKS
  • Liker 1
Lenke til kommentar

Noen idikasjon på hvor haswell kommer til å ligge i grafikk ytelse?

Haswell GT2 (likt antall EU som Ivy Bridge) ville få opp til 30% bedre ytelse var det de sa og demonstrerte.

 

Haswell kommer også i en GT3 variant med dobbelt så mange EU (les. ALUer) og med eget minne (les buffer) på CPU-pakken.

 

Testet blant annet BF3 og et par andre spill på IDF i år, og kan bekrefte at ting gikk helt glatt i 1080p med mesteparten av "eye candy" på.

BF3 glatt i 1080p med integrert GPU? Det høres rimelig merkelig ut, skulle da tro BF3 krevde litt mer minnebåndbredde enn 25GB/s

  • Liker 2
Lenke til kommentar

BF3 glatt i 1080p med integrert GPU? Det høres rimelig merkelig ut, skulle da tro BF3 krevde litt mer minnebåndbredde enn 25GB/s

Stemmer, det har Haswell allerede løst på GT3, med at de har 64MB med en rask L4 cache, uansett, mer detaljer om dette kommer senere, blir uansett for off-topic her... :)

Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...