Gå til innhold

Fusion tar form


Anbefalte innlegg

Jeg tror faktisk den vil bli ganske billig. Grunnen til det er at den blant annet siktes inn mot budsjettmarkedet: stasjonære og bærbare PCer med integrert grafikk. Grafikk-egenskapene kan nok komme til nytte som fysikk-aksellerator eller media-aksellerator i de maskinene med dedikert grafikk.

9212117[/snapback]

 

Ah, da har eg nok misforstått. Vil gå mange år før en slik kombiløsning vil gi noen god ytelse da, altså?

 

Er det problemer med denne integreringen? Å få plass til en GPU-løsning? Hvordan løses dette?

Lenke til kommentar
Videoannonse
Annonse
Ah, da har eg nok misforstått. Vil gå mange år før en slik kombiløsning vil gi noen god ytelse da, altså?

Nei, jeg tror det vil bli bra ytelse fra starten på de variantene som er ment for høy-ytelse desktop og bærbar. Dvs. når det brukes eksterne grafikkort. AMD sier klart i fra om at de ikke skal kutte ut ekstern grafikk på Fusion-løsningene. Men et betyr også at den interne grafikken blir frigjort til andre oppgaver. AMD lover nye instruksjoner i den forbindelse sånn at GPU-delen kan brukes til andre ting. F.eks fysikk-aksellerasjon, aksellerasjon av video-koding, dekoding og transkoding. Fusion vil nok være i hele markedet fra veldig billig til veldig dyr.

 

Er det problemer med denne integreringen? Å få plass til en GPU-løsning? Hvordan løses dette?

9213714[/snapback]

Det kommer an på hvilken GPU-løsning de velger. Trolig blir det en lett og billig løsning som sikter inn på å erstatte integrert grafikk i brikkesett og de enkleste dedikerte grafikkortene.

 

GPUen blir en del av CPU-kjernen. Omtrent som man gikk fra enkeltkjerne til dobbeltkjerne prosessorer så kan de legge til en GPU på den samme brikken. CPU-delen må nødvendigvis dele minnebåndbredde med GPU-delen. På den tiden blir det sikkert vanlig med doble minnekanaler med DDR3-2000 så det blir uansett mange ganger raskere enn dagens integrerte grafikk.

Lenke til kommentar
Det kommer an på hvilken GPU-løsning de velger. Trolig blir det en lett og billig løsning som sikter inn på å erstatte integrert grafikk i brikkesett og de enkleste dedikerte grafikkortene.

 

GPUen blir en del av CPU-kjernen. Omtrent som man gikk fra enkeltkjerne til dobbeltkjerne prosessorer så kan de legge til en GPU på den samme brikken. CPU-delen må nødvendigvis dele minnebåndbredde med GPU-delen. På den tiden blir det sikkert vanlig med doble minnekanaler med DDR3-2000 så det blir uansett mange ganger raskere enn dagens integrerte grafikk.

9214161[/snapback]

Kan virkelig båndbredden gi et så stort løft til ytelsen til low-end GPUer? Når det gjelder high-end er jeg med på tankegangen, men når det gjelder low-end så har jeg fått den oppfatningen at det uansett er andre faktorer som begrenser ytelsen. En annen ting er at grafikkløsninger uten dedikert minne reduserer CPU-ytelsen litt, fordi de forholder seg til samme lese/skrive-køer, og i mer eller mindre grad må konkurrere om ressursene.
Lenke til kommentar

Hva om de ga muligheten for "Dedikert GPU hyperminne" med egne DDR2/3 slotter for GPU på samme måte som man får dedikert minne for flere CPU slotter på samme HK?

 

 

"Kortet har også 1 dedikert DDR3 slot for GPU Hyperminne, denne støtter opptil 2GB konfigurasjon. HTT 3.0 gir meget god hastighet for pengene her. AMD's nye fusion program har også gjort utnyttelse av dette minnet via den integrerte minnekontrolleren i "K11" mye mer effektivt og fungerer godt selv på high-end løsninger"

Endret av Theo343
Lenke til kommentar
Kan virkelig båndbredden gi et så stort løft til ytelsen til low-end GPUer?

9215892[/snapback]

Jeg tror det. low end grafikk får stadig bedre GPUer og krever dermed stadig raskere minne for å følge med. Grafikk er svært sultent på minnebåndbredde og når 45nm Fusion kommer i salg så blir det neppe få pipelines selv i integrerte GPUer på 20 mm^2.

 

Hva om de ga muligheten for "Dedikert GPU hyperminne" med egne DDR2/3 slotter for GPU på samme måte som man får dedikert minne for flere CPU slotter på samme HK?

9218025[/snapback]

Det er en mulighet. Men det er noen problemer:

- Kostnad. Hovedkortene vil bli dyre på grunn av mange lag.

- Effektivitet. Man kunne like gjerne gitt CPUen 3 minnekanaler siden det vil gi en mer dynamisk fordeling av båndbredden ettersom det er CPU eller GPU som trenger mest.

- Minnesslots setter begrensninger på hastigheten grunnet elektriske forstyrrelser i selve kontaktpunktene. Særlig når et vell av vanlige minnemoduler skal støttes. En måte å løse dette på er å lodde grafikkminnet på hovedkortet slik det gjøres på grafikkort. Da får man ingen mulighet for oppgraderinger av grafikkminnet men man får i hvert fall god hastighet på det. Men så var det det med kostnad igjen ;)

 

En måte å løse det på kan være å lage en MCM (Multi Chip Modul) med CPU og GPU på en brikke og en minnebrikke eller to i tillegg. Det vil nok begrense kapasiteten en del, men følger man prinsippet med hypermemory og har f.eks 128 MB GDDR4-minne med bred intern buss på prosessormodulen så kan nok 2 minnekanaler med raskt DDR3-minne holde fint til å fôre både GPU og CPU med båndbredde.

 

Ellers så kan det være et tankekors at CPUer får stadig flere kjerner kombinert med at minnebåndbredden går oppover omtrent i samme tempo. Siden det er vanskelig å få programvare til å utnytte flere kjerner effektivt, særlig spill, vil minnebussen stå ledig stadig mer av tida. Altså være ledig for trafikk til og fra en GPU-del.

Lenke til kommentar
Skal tro om 55nm-produksjon dermed er bedre egnet for denne grafikkbrikken. :hmm:

9218461[/snapback]

Det er vel sikkert mer tilfeldig og hva som er tilgjengelig? Den første utgaven her høres mest ut som ett hastverksprosjekt som er puttet sammen for å vise at fusjonen gir synergi-effekter. Dvs jeg vil vel tro at ideene er god, men er litt usikker på om implementeringen er det, dog vil det gi AMD en god indikasjon hvordan markedet er for denne type løsninger uten å sette for mye prestisje eller svi av for mye penger på det.

Lenke til kommentar
Får håpe på at det kommer noen gode løsninger for mediacenterpcer ut av denne fusjonen :) Ati A.I.W kort + en cpu, og om hele pakka hadde klart seg med passiv kjøling på et mini-itx kort så hadde det begynt å bli artige mediacenter løsninger rundt om kring.

9218700[/snapback]

Og 1 TB med integrert minne, slik at vi kunne sluppet HDer/minne også?

Lenke til kommentar
Gjest Slettet-Pqy3rC

Hmm... Såvidt jeg forstår er det fortsatt to prosessorer- altså omtrent som i dag. Forskjellen ligger i at de presses tettere sammen rent fysisk.

Mon tro hvilken protokoll som benyttes mellom dem ? HTX eller PCIe ?

Lenke til kommentar
Får håpe på at det kommer noen gode løsninger for mediacenterpcer ut av denne fusjonen :) Ati A.I.W kort + en cpu, og om hele pakka hadde klart seg med passiv kjøling på et mini-itx kort så hadde det begynt å bli artige mediacenter løsninger rundt om kring.

9218700[/snapback]

Og 1 TB med integrert minne, slik at vi kunne sluppet HDer/minne også?

9218847[/snapback]

Innen den tid så vil 128/256GB SSD være rimelige, samt at SO-DIMM er rimelig som minne.

Lenke til kommentar
Interresante poenger Simen1 :). Men vil større minnebåndbredde nødvendigvis hjelpe på flere henvendelser?

Ja, det vil redusere såkalt "loaded latency". Hvis en prosess bruker en minnekanal og en annen prosess ønsker å hente noe fra minnet mens det er opptatt så vil økt minnebåndbredde gjøre at den første prosessen raskere blir ferdig med å hente sitt og dermed kan frigjøre minnekanalen til den andre prosessen. Dermed vil økt minnebåndbredde også hjelpe ved økt antall henvendelser (aksesser).

 

Og vil det si at hvis man har et spill som utnytter flere kjerner så vil det kvele GPU biten? Altså løsningen blir mot sin hensikt?

9218459[/snapback]

Tja, jo mer minnebåndbredde som brukes av CPU-kjernene jo mindre blir til overs til den integrerte GPU-delen. Men jeg mener ikke et vil virke mot sin hensikt. Tvert i mot så vil f.eks tre delte minnekanaler gi bedre ytelse i alle applikasjoner enn to minnekanaler som er dedikert til CPU-bruk pluss en minnekanal som er dedikert GPU-bruk. Forutsatt at vi snakker om sammenlignbare minnekanaler og mengde minne.

 

Ressursutnyttelsen vil bli dynamisk regulert i stedet for å være fast inndelt. Teknikken minner litt om Intels dynamiske deling av L2 cachen på Yonah og Core-arkitekturen, samt sammenslåingen av Vertex Shader og Pixel Shader i GPUer til en samlet Unified Shader. To forklarende plansjer finnes litt nede på denne siden med overskriften "Why Unify?"

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...