Jump to content
Sign in to follow this  
VargAamo

GUIDE: Tallet som forteller hvor kraftig skjermkortet egentlig er (Ekstra)

Recommended Posts

Steinbra artikkel! Tenker meg dette mikset med litt om prosessorarkitektur kan være en perfekt oppfølger, det hadde vært meget kjekt å lese en artikkel om det som holder samme kvalitet som dette. Fortsetter dere koken slik er de 29 månedlige kronene dere ber om en saga blott ;)

Share this post


Link to post
Heisann, og takk for hyggelig tilbakemelding!

For å svare på spørsmålet:

Gjelder dette også får vanlige prosessorer (CPU), Hardware?

...så er svaret "ja; men" ;)

Mens moderne skjermkort har ytelse som kommer opp i flere TFLOPS yter selv de raskeste av de nye Haswell-prosessorene fra Intel i underkant av et par hundre GFLOPS. Når T-en står for tera, og G-en står for giga, er det altså snakk om at moderne skjermkort klarer mer enn ti ganger så mange operasjoner i sekundet; mens AMDs Radeon R9 295X2 sine drøyt 11 TFLOPS er nærmere 60 ganger raskere enn en Intel Core i7-CPU.

Nå er det litt skummelt å sammenlikne epler og pærer på denne måten, siden CPU-er og GPU-er ofte brukes til dramatisk forskjellige ting og siden de arbeider på forskjellige måter - men måten FLOPS regnes ut, og hva det står for, er det samme for begge to.

Share this post


Link to post

Heisann, og takk for hyggelig tilbakemelding!

For å svare på spørsmålet:

Gjelder dette også får vanlige prosessorer (CPU), Hardware?

...så er svaret "ja; men" ;)

Mens moderne skjermkort har ytelse som kommer opp i flere TFLOPS yter selv de raskeste av de nye Haswell-prosessorene fra Intel i underkant av et par hundre GFLOPS. Når T-en står for tera, og G-en står for giga, er det altså snakk om at moderne skjermkort klarer mer enn ti ganger så mange operasjoner i sekundet; mens AMDs Radeon R9 295X2 sine drøyt 11 TFLOPS er nærmere 60 ganger raskere enn en Intel Core i7-CPU.

Nå er det litt skummelt å sammenlikne epler og pærer på denne måten, siden CPU-er og GPU-er ofte brukes til dramatisk forskjellige ting og siden de arbeider på forskjellige måter - men måten FLOPS regnes ut, og hva det står for, er det samme for begge to.

Takk for oppklarende svar, og kom gjerne med flere slike artikler i fremtiden:-)

Share this post


Link to post

Heisann, og takk for hyggelig tilbakemelding!

For å svare på spørsmålet:

Gjelder dette også får vanlige prosessorer (CPU), Hardware?

...så er svaret "ja; men" ;)

Mens moderne skjermkort har ytelse som kommer opp i flere TFLOPS yter selv de raskeste av de nye Haswell-prosessorene fra Intel i underkant av et par hundre GFLOPS. Når T-en står for tera, og G-en står for giga, er det altså snakk om at moderne skjermkort klarer mer enn ti ganger så mange operasjoner i sekundet; mens AMDs Radeon R9 295X2 sine drøyt 11 TFLOPS er nærmere 60 ganger raskere enn en Intel Core i7-CPU.

Nå er det litt skummelt å sammenlikne epler og pærer på denne måten, siden CPU-er og GPU-er ofte brukes til dramatisk forskjellige ting og siden de arbeider på forskjellige måter - men måten FLOPS regnes ut, og hva det står for, er det samme for begge to.

Kommer det kanskje en tid da ytelse på CPU blir målt/markedsført med FLOPS til fordel for GHz o.l.?

Share this post


Link to post

Heisann, og takk for hyggelig tilbakemelding!

For å svare på spørsmålet:

Gjelder dette også får vanlige prosessorer (CPU), Hardware?

...så er svaret "ja; men" ;)

Mens moderne skjermkort har ytelse som kommer opp i flere TFLOPS yter selv de raskeste av de nye Haswell-prosessorene fra Intel i underkant av et par hundre GFLOPS. Når T-en står for tera, og G-en står for giga, er det altså snakk om at moderne skjermkort klarer mer enn ti ganger så mange operasjoner i sekundet; mens AMDs Radeon R9 295X2 sine drøyt 11 TFLOPS er nærmere 60 ganger raskere enn en Intel Core i7-CPU.

Nå er det litt skummelt å sammenlikne epler og pærer på denne måten, siden CPU-er og GPU-er ofte brukes til dramatisk forskjellige ting og siden de arbeider på forskjellige måter - men måten FLOPS regnes ut, og hva det står for, er det samme for begge to.
Kommer det kanskje en tid da ytelse på CPU blir målt/markedsført med FLOPS til fordel for GHz o.l.?
Flyttalls opperasjoner er ikke så relevant for cpu utenom noen opperasjoner.
Det vil også gi et skjevt uttryk, favoritisere trege cpu med masse kjerner over en rask med færre.
den trege med mange kjerner vil yte godt I programmer som kan paraleliseres mye som video redigering men yte dårlig I spill.

Share this post


Link to post
Med tanke på at dedikert maskinvare som GPUer ble laget med nettopp slike enorme regneoperasjoner i tankene, så er det kanskje ikke så rart at de gjør det best her.

En CPU er ment til langt færre samtidige operasjoner/beregninger, men kan til gjengjeld respondere mye raskere. Er svært allsidig, samt har mange effektive instrukser for å utføre mer spesialiserte beregninger.

Dette kommer også tydeligere frem på minnet de bruker. Minnet på skjermkortet mitt har over ti ganger båndbredden (380 GB/s) sett i forhold til DDR4 minnet, mens tilgangstidene nok er i samme faktor, bare i motsatt favør. :)

Share this post


Link to post

Heisann, og takk for hyggelig tilbakemelding!

For å svare på spørsmålet:

Gjelder dette også får vanlige prosessorer (CPU), Hardware?

...så er svaret "ja; men" ;)

Mens moderne skjermkort har ytelse som kommer opp i flere TFLOPS yter selv de raskeste av de nye Haswell-prosessorene fra Intel i underkant av et par hundre GFLOPS. Når T-en står for tera, og G-en står for giga, er det altså snakk om at moderne skjermkort klarer mer enn ti ganger så mange operasjoner i sekundet; mens AMDs Radeon R9 295X2 sine drøyt 11 TFLOPS er nærmere 60 ganger raskere enn en Intel Core i7-CPU.

Nå er det litt skummelt å sammenlikne epler og pærer på denne måten, siden CPU-er og GPU-er ofte brukes til dramatisk forskjellige ting og siden de arbeider på forskjellige måter - men måten FLOPS regnes ut, og hva det står for, er det samme for begge to.
Takk for oppklarende svar, og kom gjerne med flere slike artikler i fremtiden:-)

En annen ting som er viktig å huske på når man sammenligner CPUer of GPUer er "hel-tall" regning og muligheten til å "sammenligne". En GPU er veldig rask til å regne ut en kompleks formel for hver enkelt pixel på skjermen. Men be et skjermkort om å sjekke om en verdi er mellom a og b, og ting går som sirrup. Det er det området CPUer er overlegene: evnen til å sammenligne tall.
Heltall er å regne med "hele" naturlig tall, som 0, 3, 456, 83739 og -34565, men ikke 0,1, 4,567, -487392,31 og -9,2. Det er nesten alltid forskjellig dedikert HW til begge typer tall, men på GPUer er det ofte en større andel HW dedikert til flyt-tall (desimal-tall) enn til heltall sammenlignet med en CPU.

Share this post


Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
Sign in to follow this  

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...