Gå til innhold

AMD Zen / Ryzen 1-2-3XXX serie tråden


Anbefalte innlegg

Mumriken skrev (1 time siden):

Men en 9900k bikker 800fps med god margin ? Ikke stock da rikignok

Har over 800fps til tider jeg og. Kitchen på Mirage bl.a. 

Jeg har 530FPS på FPS benchmarken, hvor mye har en 9900k på 5.1ghz?

Her er en 9900k @ 5ghz som får 507fps: 

 

Endret av ahnz
Lenke til kommentar
Videoannonse
Annonse
N o r e n g skrev (1 time siden):

RAM latency er tiden det tar fra CPU ber om data til den får hentet disse dataene ut av RAM. 65 ns er forøvrig 260 klokkesykluser for en prosessor på 4000 MHz.

Hvis alle data må hentes fra RAM (la oss overse hvor sinnsykt tregt pagefile vil være) vil en 4 GHz Ryzen-prosessor bare få utført en operasjon hvert 65. nanosekund, det tilsvarer rett over 15 millioner regneoperasjoner per sekund.
Sammenlignbare data for en 5GHz Intel-prosessor med 40 ns latency blir 25 millioner regneoperasjoner per sekund, det er 67% raskere!

Disse tallene er også langt unna de 4000 millionene med operasjoner en typisk prosessor skal kunne utføre, og det er fordi størsteparten av transistorene i en prosessor er designet for å hindre at prosessoren går på tomgang. Et tiltak er å sørge for at om en regneoperasjon mangler data for å utføres blir den satt til side inntil dataene er hentet inn, dette kalles Out Of Order Execution. Et annet tiltak er å ha nylig brukt data liggende nærmere, dette er cache og mer er bedre. Det tredje tiltaket er at man ikke trenger å hente inn et og et stykke med data, her kommer båndbredde inn i bildet. Dette er på ingen måte alt, men det er fra min begrensede forståelse ganske viktige deler.

For en operasjon der 8 kiB med data skal hentes må et Ryzen-system vente i 65 ns for de første 64 B, og så brukes full båndbredde (la oss si ca 60 GB/s) i 132 ns for resten. Total ventetid blir altså nesten 200 ns for 8 kiB med data på en Ryzen, men Intel er sikkert langt bedre...
Eller ikke? Intel er jo bare 25 ns raskere for å hente første bit, resten av overføringen tar jo like lang tid, og totalt er det altså snakk om 175 ns mot 200 ns. Knapt 10%

Og dette gjelder kun hvis dataene ikke ligger i L1, L2 eller L3 cache, der AMD har dobbelt så mye L2 og L3 sammenlignet med Intel.

Det viktige: hvis du kjører to helt separate programmer samtidig, det ene itererer over 18MB med data, og det andre itererer over 12 MB med data, så vil en i9-9900k potensielt måtte hente 14 MB med data fra minnet for hver iterasjon (alternativt gjøre ferdig et program og så bytte over til det andre), mens en R7 3700X ikke vil trenge å hente mer enn 2MB med data fra minnet ettersom det minste programmet ligger komfortabelt i L3 på CCX1 og det største fyller opp CCX2 sin 16 MiB L3. I dette søkte eksemplet ville en R7 3700X være vesentlig raskere enn en i9-9900k.

 

Det bør heller ikke overses at resultatene som oppgis i AIDA64 har absolutt ingenting å gjøre med reell ytelse i spill og andre programmer. Her er et eksempel på det: https://docs.google.com/spreadsheets/d/1awrpR8rj2OuYUCr6X-qCWGKoisF7QTSLx_FLDnlQXeA/edit?usp=sharing

Dette skal jeg lese en dag jeg har barnefri og får nok søvn :) Men kjekt med kunnskapsrike folk på forumet.

Lenke til kommentar

Hei,

Er det noen her som bruker ASRock X570 Phantom Gaming X? Prøver å finne ut hvordan man bruker offset funksjonen til å under-volt CPU? (hvis det finnes verb for det). Finner masse eksempler på youtube hvordan man gjør det på MSI og andre hovedkort.

Takker og bukker på forhånd!

Lenke til kommentar
1 hour ago, N o r e n g said:

 

 

Det bør heller ikke overses at resultatene som oppgis i AIDA64 har absolutt ingenting å gjøre med reell ytelse i spill og andre programmer. Her er et eksempel på det: https://docs.google.com/spreadsheets/d/1awrpR8rj2OuYUCr6X-qCWGKoisF7QTSLx_FLDnlQXeA/edit?usp=sharing

Da er spørsmålet: 
Hva er det som har noe med reell spill ytelse? 
Minnehastighet har tydeligvis og strammere timings har noe med spillytelse tydeligvis. Konsekvensen blir med dette at minnebåndbredden blir høyere og latency blir lavere.

Er vel en god kombo av båndbredde OG latency som gjør ytelsen bedre. Som du viser, så er det altså ikke bare kun latency som har noe å si, men infinityfabric hastigheten.

Forskjellige spill kan sikkert ha forskjellige behov av minnebåndbredde og latency også. Har man et veldig highend skjermkort, så blir jo minnebåndbredden fort en flaskehals.

Hva latency angår, så er det nok forskjell på Intel og Amd også her hva som er viktigst. På Ryzen så er jo å få opp "infinity fabric" hastigheten viktig for ytelse.

* 3800 B-die manual testen gir best ytelse ser det ut som. Denne har også lavest memorylatency. Er det båndbredden som trekker opp ytelsen med dette oppsettet eller er det hele pakka i f.eks Tombraider spillet? Når 3800 b-die oppsettet har best båndbredde og lavest latency, så er det jo en god indikasjon å se på memorylatency om det yter bra?

Jeg må innrømme at det er litt vanskelig å skjønne av grafen at den sier at latency ikkje har noe å si, når best ytelse er der memorylatency er lavest :p   Eller ser jeg helt feil på grafen? 457577251_norenglatency.thumb.PNG.8f76ba287d2504b20c05c7373b2bc9f9.PNG

Endret av Nizzen
Lenke til kommentar
Odin_83 skrev (26 minutter siden):

Hei,

Er det noen her som bruker ASRock X570 Phantom Gaming X? Prøver å finne ut hvordan man bruker offset funksjonen til å under-volt CPU? (hvis det finnes verb for det). Finner masse eksempler på youtube hvordan man gjør det på MSI og andre hovedkort.

Takker og bukker på forhånd!

Jeg vet ikke. Men tenkte å nevne at det trolig er to andre metoder som er bedre enn å bruke undervolt:

1. Sette PPT til en lavere verdi. (sier hvor mange watt cpu kan bruke)

2: Sett volt fast til 1.10V-1.15 eller noe slikt avhengig av prosessor.

Redusere SoC voltage kan også ta av litt effekt.

Endret av Svein M
Lenke til kommentar
Svein M skrev (3 minutter siden):

Jeg vet ikke. Men tenkte å nevne at det trolig er to andre metoder som er bedre enn å bruke undervolt:

1. Sette PPT til en lavere verdi.

2: Sett volt fast til 1.10V-1.15 eller noe slikt avhengig av prosessor.

Redusere SoC voltage kan også ta av litt effekt.

Punkt nr 2. Har jeg testa og det gikk. Kjørte på 4Ghz, 1.04V (VID)og 1.05V(VID) på en 3900X gikk fint. Punkt nr. 1 forstår jeg ikke hva PPT menes i dette sammenheng bortsett at mitt barn får hjelp av PPT ?

Grunnen at jeg spør er: BIOS på ASRock Phantom Gaming X har så mye funksjoner at jeg ikke finner ut hva som er hva. Bruksmanual eller håndboka til HK er også ganske ubrukelig. Finner lite informasjon som står eller forklare hva de forskjellige funksjonene i BIOS brukes til osv.

Lenke til kommentar
Odin_83 skrev (15 minutter siden):

Punkt nr 2. Har jeg testa og det gikk. Kjørte på 4Ghz, 1.04V (VID)og 1.05V(VID) på en 3900X gikk fint. Punkt nr. 1 forstår jeg ikke hva PPT menes i dette sammenheng bortsett at mitt barn får hjelp av PPT ?

Grunnen at jeg spør er: BIOS på ASRock Phantom Gaming X har så mye funksjoner at jeg ikke finner ut hva som er hva. Bruksmanual eller håndboka til HK er også ganske ubrukelig. Finner lite informasjon som står eller forklare hva de forskjellige funksjonene i BIOS brukes til osv.

PPT er et parameter en kan sette om Precision Boost Overdrive er enabled. Med den kan en sette hvor mange watt cpu kan trekke. F.eks 65W cpu har PPT=88 som default. Dvs de kan trekke 88W. I praksis så kan de bruke ca 2W mer en dette også.

PPT er omtalt her:

https://www.gamersnexus.net/guides/3491-explaining-precision-boost-overdrive-benchmarks-auto-oc

Endret av Svein M
Lenke til kommentar
1 hour ago, ahnz said:

Har over 800fps til tider jeg og. Kitchen på Mirage bl.a. 

Jeg har 530FPS på FPS benchmarken, hvor mye har en 9900k på 5.1ghz?

Her er en 9900k @ 5ghz som får 507fps: 

 

Benchmarken jeg mente selvfølgelig ?

Hvordan han klare å få et så sjukt dårlig resultat er for meg ei gåte 

 

Lenke til kommentar
Nizzen skrev (52 minutter siden):

Da er spørsmålet: 
Hva er det som har noe med reell spill ytelse? 
Minnehastighet har tydeligvis og strammere timings har noe med spillytelse tydeligvis. Konsekvensen blir med dette at minnebåndbredden blir høyere og latency blir lavere.

Er vel en god kombo av båndbredde OG latency som gjør ytelsen bedre. Som du viser, så er det altså ikke bare kun latency som har noe å si, men infinityfabric hastigheten.

Forskjellige spill kan sikkert ha forskjellige behov av minnebåndbredde og latency også. Har man et veldig highend skjermkort, så blir jo minnebåndbredden fort en flaskehals.

Hva latency angår, så er det nok forskjell på Intel og Amd også her hva som er viktigst. På Ryzen så er jo å få opp "infinity fabric" hastigheten viktig for ytelse.

* 3800 B-die manual testen gir best ytelse ser det ut som. Denne har også lavest memorylatency. Er det båndbredden som trekker opp ytelsen med dette oppsettet eller er det hele pakka i f.eks Tombraider spillet? Når 3800 b-die oppsettet har best båndbredde og lavest latency, så er det jo en god indikasjon å se på memorylatency om det yter bra?

Jeg må innrømme at det er litt vanskelig å skjønne av grafen at den sier at latency ikkje har noe å si, når best ytelse er der memorylatency er lavest :p   Eller ser jeg helt feil på grafen?

Problemet med målingene fra AIDA64 er at jeg kan velge ut data som tilsier at høyere latency er bedre, og lavere minnebåndbredde er også bedre for spill...

Jeg skal ikke benekte at strammere timings og høyere frekvens stort sett hjelper på spillytelsen, men når målingene man gjør i AIDA64 ikke korrellerer med faktisk ytelse i spill er målingene programmet gjør intetsigende og mer påvirket av ting som Power Down Mode, Gear Down Mode, tRAS, tRCDRD, og tRFC, framfor timinger som virkelig kan påvirke effektiv båndbredde i form av tWRRD/tRDWR og tRDRD_/tWRWR_SCL

Det jeg har lagt merke til er at dataraten som blir oppgitt i stressapptest ser ut til å treffe bedre når det kommer til minnebåndbredde enn AIDA64, det er jo faktisk veldig mulig å oppnå "umulige" tall i AIDA64 når man kjører en R9 3900X eller R9 3950X i form av høyere read/copy enn teoretisk maks (3800 MHz DDR på AM4/LGA1151 kan maksimalt overføre 60800 MB/s)

AIDA6.png

  • Liker 2
Lenke til kommentar
Mumriken skrev (27 minutter siden):

Benchmarken jeg mente selvfølgelig ?

Hvordan han klare å få et så sjukt dårlig resultat er for meg ei gåte 

 

Har sett et utall benchmarks, og fått folk på stream med 9900k til å kjøre, og de har fått tilsvarende resultat.

Nyeste generasjon Ryzen er veldig bra for CS:GO

Endret av ahnz
Lenke til kommentar
Nizzen skrev (15 timer siden):

Da er spørsmålet: 
Hva er det som har noe med reell spill ytelse? 
Minnehastighet har tydeligvis og strammere timings har noe med spillytelse tydeligvis. Konsekvensen blir med dette at minnebåndbredden blir høyere og latency blir lavere.

Er vel en god kombo av båndbredde OG latency som gjør ytelsen bedre. Som du viser, så er det altså ikke bare kun latency som har noe å si, men infinityfabric hastigheten.

Forskjellige spill kan sikkert ha forskjellige behov av minnebåndbredde og latency også. Har man et veldig highend skjermkort, så blir jo minnebåndbredden fort en flaskehals.

Hva latency angår, så er det nok forskjell på Intel og Amd også her hva som er viktigst. På Ryzen så er jo å få opp "infinity fabric" hastigheten viktig for ytelse.

* 3800 B-die manual testen gir best ytelse ser det ut som. Denne har også lavest memorylatency. Er det båndbredden som trekker opp ytelsen med dette oppsettet eller er det hele pakka i f.eks Tombraider spillet? Når 3800 b-die oppsettet har best båndbredde og lavest latency, så er det jo en god indikasjon å se på memorylatency om det yter bra?

Jeg må innrømme at det er litt vanskelig å skjønne av grafen at den sier at latency ikkje har noe å si, når best ytelse er der memorylatency er lavest :p   Eller ser jeg helt feil på grafen? 457577251_norenglatency.thumb.PNG.8f76ba287d2504b20c05c7373b2bc9f9.PNG

Vi har jo diskutert dette endel ganger før, men det finnes flere typer latency, aida64 gir en viss indikasjon, men den måler bare en variant, ryzen 2k har jo ganske lik båndbredde som ryzen 3k, lavere latency i aida64, MEN betydelig dårligere app og spillytelse med lik klokkehastighet/ramhastighet. Gamecache er en av grunnene. Hva spillytelse angår har du f.eks tRRDS/tFAW og tRC/tRFC som gjør omtrent ingenting for latency, men kan gi flere prosent løft i spillytelse. Den største enkeltfaktoren som gjør at Samsung B-die har bedre spillytelse enn Micron E-die er faktisk tRFC, Samsung kan dog kjøre primærtiming nr. 2 betydelig lavere enn Micron, den påvirker latency i Aida64 litt, men har svært lite å si i spill. 

Kan vise et eksempel fra GN:

aots-memory-chart.png

Her er alle andre subtimings like foruten tRFC. 3200cl14 blir slått av 3200cl16 i spill med 4%, men så viser det seg at 3200cl14 kjører tRFC på 560, mens 3200cl16 kjører tRFC på 416. Når man justerer den ene verdien som ikke påvirker Aida64 latency nevneverdig så øker avg fps med 6% og 0.1% lows med nesten 20%. 

Lenke til kommentar
23 hours ago, ahnz said:

Fikk endelig pinpointa hva som gjør at jeg får stutters i både bilde og lyd under spilling, videoavspilling osv. 

Noen som vet hva jeg kan gjøre for å fikse dette? 

DPC.png

Har du vurdert Theo343 sin anbefaling om å ha denne surrende i bakgrunnen? Jeg har ikke peiling på om det hjelper mot stutters. Er kanskje mer noe drivergreier? Uansett alle optimaliseringer man kan få gjort betyr jo litt, så (siden Windows har ræva minnebehandler):

https://www.wagnardsoft.com/content/intelligent-standby-list-cleaner-v1000-released

 

Endret av G
Lenke til kommentar
Mumriken skrev (22 timer siden):

Min klarte 700++ og Carillo(@ocn) sin klarte 900fps ;)

Hvilke settings bruker dere da? Jeg har aldri sett noen fått over 600 FPS. Med mindre man bruker kunstig lav oppløsning eller andre triks, så vil jeg se hvordan dere klarer 50-80% mer FPS enn 3600x, med skarve 10% høyere single thread ytelse på 5.2ghz :) (ref Userbe*******)

Lenke til kommentar
55 minutes ago, ahnz said:

Hvilke settings bruker dere da? Jeg har aldri sett noen fått over 600 FPS. Med mindre man bruker kunstig lav oppløsning eller andre triks, så vil jeg se hvordan dere klarer 50-80% mer FPS enn 3600x, med skarve 10% høyere single thread ytelse på 5.2ghz :) (ref Userbe*******)

Vi snakker nesten 4800mhz+ på minnet og max tweaket  timings :) Var vel sikkert 5300mhz på cpu også.

PS: Aldri se på "userbech" nettsiden, fordi den er HELT på tryne for å sammenlikne ytelse.

Carillo er nede i under 35ns latency på systemet sitt, og en 3600x med rimelig vanlig minne har latency på sikkert 75ns eller.no Det kan godt være at der er noe av forskjellen. Latency er faktisk 100% høyere på stock 3600x ryzen cpu ;) Iallefall sånn ca.

Cpulatency ER faktisk viktig for å få virkelig mange fps i mange "fps" spill. Da er det Intel som er konge.

Det betyr ikkje at Ryzen er elendig, bare litt mindre rask til noen spill.

 

Endret av Nizzen
  • Liker 1
Lenke til kommentar
1 hour ago, ahnz said:

Hvilke settings bruker dere da? Jeg har aldri sett noen fått over 600 FPS. Med mindre man bruker kunstig lav oppløsning eller andre triks, så vil jeg se hvordan dere klarer 50-80% mer FPS enn 3600x, med skarve 10% høyere single thread ytelse på 5.2ghz :) (ref Userbe*******)

Competative settings som de fleste bruker

Lenke til kommentar

Fått igang 3800Xen og X570 Strix-F. 

Funker greit på auto, booster til 4275-4400 uten å ha vært i BIOS. Får iallefall bencha 4.5 på ca 1.37V, max temp i CB R20 er 65-70'C eller.no. Får leke litt videre imorgen kveld, må få pusha rammen litt hardere også. Kjører bare A4 3733cl15

Får teste og se hvor langt jeg kommer på ca 1.3-1.325V.

EDIT: Skriveleif.

Endret av Christian Thork
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...