Gå til innhold

AMD bygger alt inn i kjernen


Anbefalte innlegg

Videoannonse
Annonse

Fusion høres spennende ut. Har ikke satt meg inn i det tekniske her. Kanskje noen kan opplyse meg om hvor bra dette egentlig er ment å bli, i første runde?

 

1. Hvor sterk grafikk-bit legges trolig inn i AMD fusion? Snakker vi om "chipset"-kapasitet, her?

 

2.Har ikke AMD er relativt stort konkurransefortrinn framfor Intel i og med at de "slukte" opp ATI?

 

3. (- og nVidia er i USB 3- uoverenstemmelser med Intel?) Hvor tett er egentlig samarbeidet mellom Intel og nVidia?

 

4. Hvorfor ikke bare kutte ut hele CPU-opplegget og basere hele teknologien på GPU, som russiske hackere/crackere visstonk bruker fordi de er mer effektive enn CPU'er? Det er jo sagt mye om det på data-sider de siste årene, at GPU egentlig er mye bedre enn CPU på noe vis?

Lenke til kommentar
Fusion høres spennende ut. Har ikke satt meg inn i det tekniske her. Kanskje noen kan opplyse meg om hvor bra dette egentlig er ment å bli, i første runde?

 

1. Hvor sterk grafikk-bit legges trolig inn i AMD fusion? Snakker vi om "chipset"-kapasitet, her?

 

2.Har ikke AMD er relativt stort konkurransefortrinn framfor Intel i og med at de "slukte" opp ATI?

 

3. (- og nVidia er i USB 3- uoverenstemmelser med Intel?) Hvor tett er egentlig samarbeidet mellom Intel og nVidia?

 

4. Hvorfor ikke bare kutte ut hele CPU-opplegget og basere hele teknologien på GPU, som russiske hackere/crackere visstonk bruker fordi de er mer effektive enn CPU'er? Det er jo sagt mye om det på data-sider de siste årene, at GPU egentlig er mye bedre enn CPU på noe vis?

 

1 : Sannsynligvis sterkere enn de integrerte chipsett løsningene til Intel. Men ikke nok til å ødelegge det dedikerte Gpu markedet enda (kanskje om 3-5 år? ).

 

2 : Intel har største segmentet av Grafikkmarkedet faktisk, teknologisk så har både Nvidia og Ati/Amd et stort forsprang når det gjelder gpu på intel.

 

3 : Mye problemer på den fronten, Intel og Nvidia krangler svært mye...

 

4 : 2 forskjellige enheter egentlig, GPU kan ikke ta ALLE oppgavene som en Cpu kan, men med spesialisert software så kan den være en veldig effektiv tallknuser.

Lenke til kommentar
Intels Westmere-prosessor inneholder både en grafikkbrikke og minnekontroller på samme sokkel der man kommuniserer via en dedikert buss.

Strengt tatt gjelder ikke dette alle Westmere-prosessorene (= Nehalem 32nm). Det gjelder kun Westmere-prosessorene med sokkel LGA1156 (for stasjonære PC-er) og sokkel mPGA989 (for bærbare). Westmere-prosessorer for LGA1366 (foreløbig Gulftown 6-kjerner) får altså ikke GPU. Grunnen er at sokkelen ikke har pinner for grafikksignalene.

 

Noe lignende vil skje hos AMD siden AMD skal bruke den eksisterende AM3-sokkelen til "Bulldozer" som kommer i 2011. Det er altså kun "Bobcat"-prosessorene som får integrert grafikk i første omgang. Bobcat får neppe sokkel, men en BGA-basert løsning (loddes rett på hovedkortet).

Lenke til kommentar

Det er helt unødvendig om brikkene får støtte for DirectX 11, siden grafikkløsningen ikke vil være i stand til å utnytte det.

 

Jeg håper at den videre utviklingen (for skrivebordet) vil dreie mot at konkurransen om flest mulig kjerner i CPU roes ned, og at fokuset blir på å lage raske kjerner for CPU-delen, og en massiv GPU til parallellprosesering. CPUen bør få mer og mer jobb som "sjef", mens GPUen er arbeidshest for store egnede regneoppgaver. En slik kombinasjon vil både gi mest ytelse per watt og per areal. Den største tabben de kan gjøre nå er vel delt grafikkminne.

Lenke til kommentar

Om 3-4 år håper jeg vi ser MCM (Multi Chip Module) a la dette:

 

mobility_radeon_x1600_csp.jpg

 

Der CPU med integrert GPU er hovedbrikken og det er DRAM-brikker rundt denne som fungerer som grafikkminne eller delt systemminne/grafikkminne, alt etter hvordan behovet for mengde systemminne og grafikkminne på desktop/laptop utvikler seg de neste årene. Hele modulen settes i prosessorsokkelen på hovedkortet. Dette vil gi mulighet for langt større minnebåndbredde enn med slot-basert minne. Ulempen er at man får langt mindre valgmuligheter av minne til hver prosessor. En alternativ variant er å ha begge deler: Litt superrraskt minne på modulen og tregere systemminne i slots på hovedkortet. Ulempen med det er at det blir vanskeligere å programmere og optimalisere for. (NUMA aware programvare)

Lenke til kommentar
<...>(NUMA aware programvare)

Numa numa yeah! :p

 

Det kunne sikkert vært veldig kjekt å ha 1-2GB delt GDDR5 (eller høyere?) på samme sokkel. CPU kunne sikkert gjort god bruk av ledige biter av dette med >100GB/s båndbredde for ting som er ekstremt minnebåndbredde-sensitivt. Og med en dedikert GPU i tillegg ville dette da blitt tilgjengelig for CPU når dedikert GPU var i bruk.

For bærbare/desktops kunne det også vært mulig å integrert ONFI >2.2 kontroller og hatt 1 (eller 2 stacked?) NAND TSOP(s) på sokkelen med 32-64GB (4-8 dies) kapasitet og >200MB/s båndbredde (les) for bruk til OS.

Med alle disse komponentene på samme sokkel vil alle busser være kjente, og kan trygt kjøre med høyere frekvens da produsenten har bedre kontroll.

Lenke til kommentar
En alternativ variant er å ha begge deler: Litt superrraskt minne på modulen og tregere systemminne i slots på hovedkortet. Ulempen med det er at det blir vanskeligere å programmere og optimalisere for. (NUMA aware programvare)

Ikke nødvendigvis. Mulig jeg tenker feil, men burde det ikke være en ide at man lar det være cache som erstatter nåværende L3-cache, eller ev. kommer i tillegg som et L4-cache? Det vil jo være langt raskere enn systemminnet, men ikke ha kapasitet nok til å erstatte det.

Lenke til kommentar

Nei, det er en fordel hvis man kun ser på totalt antall Watt fordi man kan fjerne en noen ledd i kjeden mellom CPU og GPU. F.eks PCIe-kontrollere i begge ender.

 

Men du har delvis rett på grunn av at tettere plassering øker utfordringene med varmespredning. Så om en 35 Watt CPU + en 25 Watt GPU matematisk-logisk ville blitt 60 Watt så vil redusert antall ledd kanskje redusere dette til 50 Watt totalt. Det blir trolig en smule vanskeligere å kjøle en dings på 50 Watt enn en på 35 + en på 25 Watt. Men på grunn av integreringen vil man også ha mer plass til kjøleren.

 

En fordel med å kombinere to varmekilder under en kjøler er at man får større potensiale for dynamisk oppklokking ("turbo"). Et eksempel: Man kjører noe som krever mye CPU og ikke noe av GPU. Da kan CPU få hele effektbudsjettet på 50 Watt fordi kjøleren er dimensjonert for det. Tilsvarende hvis noe krever lite CPU og mye GPU.

 

PS. Antallet Watt i eksemplene er valgt for å passe med større bærbare PCer i budsjettklassen og mellomklassen, der kombinasjonen CPU+GPU kommer best til sin rett.

Lenke til kommentar

Henger meg på resonnementet til Simen1. Å flytte data mellom brikker er kostbart i batteridrevne enheter. Jo lengre og raskere de skal flyttes des mer effekt kreves. Dette utgjør i dag en vesentlig del av effektbudsjettet og det er en stadig økende post fordi avstander mellom brikkene ikke kan skaleres ned like raskt som en skalerer ned effektforbruket i selve brikkene. Videre trenger nye og kraftigere brikker stadig mer båndbredde for å gjøre jobben sin.

 

Moduler som den lengre oppe i tråden er veldig interessant. Enda mer interessant blir det når de begynner å stable brikkene i høyden. Dette gjøres allerede i dag for enkelte minneteknologier. Det er ganske besnærende å tenke på at en kan legge flere titalls brikker på toppen av hverandre i svært tynne flak og avstanden mellom de to ytterste brikkene blir likevel mye mindre enn den interne avstanden på diagonalen av en brikke. Ekstremt mye ytelse/watt å hente ut her.

Lenke til kommentar

Er det bare jeg som reagerer på at Fusion skal være basert på Phenom II? Står ubekreftet der men skulle ikke forundre meg.

 

En da 2år gammel prosessor arkitektur som får en GPU i seg. Den blir sikkert tweaket og surret med men hvor mye mer kan de hente ut av dette designet? 5%? 10%?

 

Isåfall må de tenke effektivitet istedet da prosessoren tvilsomt vil være noen racer.

 

Ifølge roadmap til AMD skal Mainstream Desktop ha 4-kjerner og GPU pr 2011, og da må det nesten bli denne prosessoren. Da de andre kjernene som kommer samtidig ikke passer beskrivelsen.

 

*skuffet* Håper det er ubegrunnet

Endret av Revox
Lenke til kommentar

Integrerte løsninger vil nok uansett ikke være de skarpeste før effektforbruket er redusert en del. Per i dag er det mulig å utnytte datakraften fra mange watt med CPU og GPU. Ettersom CMOS blir bedre så vil ikke totalt effektforbruk bli så stort et problem sammtidig som kostnaden av fysisk avstand øker ettersom ytelsen øker. På sikt vil altså integrerte løsninger bli raskest, men krysningspunktet ligger nok noe frem i tid.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...