Gå til innhold

Tror på sammensmelting av CPU/GPU


Anbefalte innlegg

Videoannonse
Annonse
Her har du noe jeg savner av hardware.no...en GOD forklaringsartikkel på hva som menes med at disse to skal smelte sammen, ikke bare et kort resume av sammendraget til hva en AMD-ansatt har skrevet på noen sider.

6951048[/snapback]

Få Simen1 til å skrive!

For hvert innlegg den mannen skriver, blir jeg mer og mer imponert over hva den mannen kan. (Men det skal sies at mine kunnskaper om hardware ikke er så store).

Lenke til kommentar
En annen fin bieffekt av en sammenslåing er at varmebudsjettet på f.eks 65W deles på GPU og CPU. Dagens systemer med f.eks 89W til CPU og 100W til skjermkortet produserer mye varme og setter høye krav til strømforsyning og andre komponenter. En sammenslåing vil altså ikek bare senke kostnadene til kretskort, porter, minne, kjølere, osv, men også senke kostnaden på PSU og strømregningen. Særlig i land der de bruker aircondition til til å holde PC-rommene kjølige.

6950945[/snapback]

 

Men det er jo ikke noe logikk i det du sier...

 

Problemet er jo at jo mer komplekse konstruksjoner du har, jo mer strøm bruker det. Som regel kan du måle det røfft med antall transistorer som er brukt. Du kan jo ikek bare ta en CPU med så-og-så mange transistorer, slenge den i samme pakning som en GPU med så-og-så mange transistorer, og forvente at nå skal det totale antallet transistorer magisk krever færre ampere...! Ikke ved mindre du på en eller måte kan få en synergi mellom de to slik at du kan redusere transistorer uten å minke ressursene til GPU og CPU.

 

Da må jo enten CPU/skjermkortene forandres slik at de blir mer effektive, eller forenkles sli kat de blir mindre effektkrevende (og svakere). Begge disse to tingene vil jo kunne gjøres uavhengig av om CPU og GPU er integrerte med hverandre eller ikke.

 

-Stigma

Endret av Stigma
Lenke til kommentar
Når jeg leser dette er det en ting som spøker i underbevisstheten... vaaarmt!

 

Selvfølgelig er det sikkert mulig å fikse dette med mindre effektkrevende prosessorer, men sett i forhold på hvor mange watt dagens prosessorer forbruker (AM2: 125W ??) + dagens GPU´er, så ser jeg for meg en riktig smeltedigel...  :whistle:

6950187[/snapback]

Overgangen fra 1 til 2 kjerner gikk da fint uten at vi fikk glovarme prosessorer. Det var jo folk som spådde at 1+1=2 når det kom til effekt men det stemte altså ikke. Firekjerner ser heller ikke ut til å gi voldsomme økninger i effekt. For å dra frem noen eksempler: Turion X2 på 31W (rettet) , Athlon64 X2 3800+ 35W, Core 2 Duo 35W til bærbare, Core 2 Quad til stasjonære: 80W og Xeon 53xx til på 80W. Hvem hadde trodd det for et par år siden da AMDs enkeltkjerner var på 45-105W og Intels heteste potet prescott var på over 130W på det meste og ned mot 95W på det minste?

6950374[/snapback]

 

Men Simen Simen, dette har jo å gjøre med at prosessordesignet ble dramatisk forbedret, ikke at de ble satt sammen i dobbeltkjerner. Tror du virkelig at om de hadde laget en dobbeltkjerne eller quad-kjerne Prescott så hadde de ikke fått uoverkommelige problemer med varmen? ...

 

Jeg prøver ikke her å argumentere for at det ikek er mulig å gjøre. Jeg er ikke en prosessor-ingenør, så jeg har ikek dype nok kunnskaper til å kommentere på om slike typer synergier er mulige eller ikke - men jeg tror det at dersom alt dette skal integreres til ett, så vil enten kjølingen eller ytelsen ende opp med å lide i samme spranget...

 

Men dog... kanskje det ikke er så ille å måtte ha monsterkjøling når du bare trenger å bry deg om èn eneste chip som spytter ut 80% av varmen. Da kunne du liksom tatt deg råd til en enkel vannkjølingsloop eller en fet vifte som stock kjøling.

 

-Stigma

Endret av Stigma
Lenke til kommentar
Grafikk trenger ikke noe særlig rask responstid på minnet, men det gjør CPU. Jeg ser for meg at CPU vil få førsteprioritet i minnekontrolleren og at grafikk kan spise av all overskytende båndbredde, noe som ofte betyr 90% av minnebåndbredden. Minnebåndbredden er per i dag 12,8 GB/s med doble minnekanaler DDR2-800. Om ikke så mange måneder dobles dette til 25,6 GB/s med AMDs 4x4 quadfather.

6950698[/snapback]

Et spørsmål til den siste setningen her: På 4x4-plattformen vil vel bare en av prosessorene kommunisere direkte med brikkesettet, dvs at "CPU 2" må gå igjennom "CPU 1" vha HyperTransport? Hver prosessor vil riktignok ha dedikert kontroller og minne, men er det egentlig sannsynlig at skjermkortet vil dra særlig nytte av minnet til CPU 2? Endret av Quintero
Lenke til kommentar

Noe av det negative jeg ser med en slik integrert utvikling er at det på sikt muligens fjerner hele konseptet "pc-bygging". Hvis alt til synvende og sist kommer lodda fast på hovedkortet er det jo ikke så mye igjen å bygge (i den fremtid når de integrerte løsningene er på høyde, eller bra nok i forhold til separate løsninger).

Lenke til kommentar

Som andre her har sagt, sammenslåing av CPU og GPU er sannsyligvis en god løsning for low-end markedet.

 

Det er forsåvidt ingenting i veien for å slå sammen den beste GPU'en med den beste CPU'en, men jeg har vanskelig for å se at dette gir noen ytelsesøkning. Erfaringsmessig har båndbreddebehovet mellom GPU og CPU økt sakte sammenliknet med prosessorytelsene.

 

AGP bussen var fortsatt ikke noen flaskehals for 3D akselerasjon da bransjen valgte å gå over til den raskere PCIe bussen. Hovedgrunnen for dette skiftet var nok først og fremst at den serielle overføring i PCIe er billigere og enklere å implementere enn den brede parallelle AGP bussen.

 

Sammenslåing av flere kjerner på en brikke kan gi ekstrem ytelsesøkning i kommunikasjonen mellom kjernene. Men dette er det altså ikke behov for mellom GPU og CPU på det nåværende tidspunkt.

 

En brikke med CPU og GPU kan også koste halvparten av hva den samme funksjonaliteten koster spredt utover to brikker. Uten noe tap i ytelse. Så lenge man ikke presser grensene for hva det er plass til på en brikke.

Lenke til kommentar
Men Simen Simen, dette har jo å gjøre med at prosessordesignet ble dramatisk forbedret, ikke at de ble satt sammen i dobbeltkjerner. Tror du virkelig at om de hadde laget en dobbeltkjerne eller quad-kjerne Prescott så hadde de ikke fått uoverkommelige problemer med varmen? ...

6952755[/snapback]

2 * Prescott hadde selvsagt doblet effekten i forhold til en om man ikke gjør noen endringer. Men det er ikke slik det gjøres. Brikkene vil både få senket klokkehastigheten med rundt 10% slik at spenningen kan senkes noe. I tillegg vil det bli en del synergieffekter om man kobler det litt smartere enn å bare putte to uavhengige kjerner under samme lokket. F.eks har AMDs X2 felles minnekontroller, krossbar og HT-linker. Dette sparer en god del effekt i forhold til å ha dobbelt opp av alt. For intels del har de en FSB-kontroller på deling i Conroe i stedet for to separate. Dette gir en del lavere effekt siden FSB-kontrolleren står for en god del varmeproduksjon.

 

Hvis man spleiser CPU og GPU så vil man rasjonalisere bort en effektkrevende northbridge på brikkesettet, PCIe-kontrolleren på GPU, minnekontrolleren på GPU og minnet til GPU. Kombiner dette med 10% lavere klokkehastigheter så vil det i teorien gå ut over ytelsen, men det trenger ikke være sant siden en del bremsende ledd i kommunikasjonen mellom CPU og GPU er fjernet.

 

Et spørsmål til den siste setningen her: På 4x4-plattformen vil vel bare en av prosessorene kommunisere direkte med brikkesettet, dvs at "CPU 2" må gå igjennom "CPU 1" vha HyperTransport? Hver prosessor vil riktignok ha dedikert kontroller og minne, men er det egentlig sannsynlig at skjermkortet vil dra særlig nytte av minnet til CPU 2?

6952960[/snapback]

Godt poeng. Det tenkte jeg ikke på i farta. Men nå er hovedulempen med det at det blir et hopp ekstra og dermed lengre responstid. Grafikk er ikke spesiellt avhengig av lav responstid (grafikkminne kan ha f.eks CL14). Med tanke på båndbredde kan nok HT bli en liten flaskehals. (Dagens HT-buss er "bare" på 8GB/s full duplex)

 

Noe av det negative jeg ser med en slik integrert utvikling er at det på sikt muligens fjerner hele konseptet "pc-bygging".

6953833[/snapback]

Jeg har ikke sett noe til at det har forsvunnet når nettverkskort eller lydkort ble integrert. Eller når FPU ble integrert, eller når 2D og 3D skjermkort ble til et samlet kort for begge deler.

Lenke til kommentar
Noe av det negative jeg ser med en slik integrert utvikling er at det på sikt muligens fjerner hele konseptet "pc-bygging".

6953833[/snapback]

Jeg har ikke sett noe til at det har forsvunnet når nettverkskort eller lydkort ble integrert. Eller når FPU ble integrert, eller når 2D og 3D skjermkort ble til et samlet kort for begge deler.

6954483[/snapback]

 

Nettverkskortet var en byggekloss, lydkortet var en annen, FPU var en tredje osv. Sammenligner vi med lego blir det kjedeligere og kjedelige å bygge etter hvert som antall klosser blir mindre og når det bare blir en kloss igjen.... da er leken over....

Lenke til kommentar
Nettverkskortet var en byggekloss, lydkortet var en annen, FPU var en tredje osv. Sammenligner vi med lego blir det kjedeligere og kjedelige å bygge etter hvert som antall klosser blir mindre og når det bare blir en kloss igjen.... da er leken over....

6954981[/snapback]

 

MAO:

tilbake til lego igjen! :)

 

jeg har alltid syntes det har vært rart at pc-verdenen åpner for så modulære løsninger som den gjør.

 

De fleste vanlige brukere (dvs alle de som ikke henger her på forumet) skal bare ha en maskin som dekker behovet enkelt og greit.

 

Apple har i alle år skjønt dette.

 

Et annet argument som ikke er nevnt over for hvorfor de skal smelte sammen er; fordi de kan.

på 45nm er det plass til så mange transistorer at masse ny funksjonalitet kan dyttes inn. med dual og quad core har ikke brukerne behov for så mye mer prossessorkraft. Dette er vel å banne i kjerka men jeg prøver en til; vi trenger snart ikke heftigere grafikkbrikker heller. (jada jeg vet at feks sanntidsmpeg4hdkompresjon er et stykke unna fortsatt, men vi snakker fortsatt om mannen i gata.)

 

færre chipper, lavere pris, . neste blir nettverk, usb, hdkontroller, lyd og vips var southbridge og utbygningsspor borte og pc'er er like lite trimbare som dagens biler.

fordelen er at pcene blir billigere!

Endret av firefox
Lenke til kommentar

En viktig faktor, som få har nevnt her, et er at busshastigheten mellom CPU og GPU er forsvinnende liten i forhold til antall FLOPS på GPUen på en standard PC. (I praksis gir ikke PCIe 16x mer enn 1GiB/S mellom CPU og GPU.) Ettersom både GPUer og CPUer blir kraftigere blir dette mer og mer en flaskehals.

 

På PS3/XBox 360 (på akademisk: heterogene arkitekturer), med delt, raskt minne er denne hastigheten betydlig høyere (XBox: 20GiB/S GPU<->RAM, 10 GiB/S CPU<-> RAM; PS3: 15GiB/S GPU->Cell, 20 GiB/S Cell->GPU.)

 

Dette gir i mye større mulighet til å bruke både GPU og CPU sammen (or dermed styrken) til begge prossesorene til å lage nye algoritmer som gir mer realistisk grafikk. Hvis vi antar 720p oppløsning og 60FPS gir 20GiB/S muligheten til å kommunisere 75 float verdier/pixel mellom CPU og GPU. Dagens løsning gir bare 3.75 floats/pixel.

 

Denne økte båndbredden alene er god nok grunn til å putte GPU og CPU på samme chip. I tillegg er det store kostnadsbesparelser på sluttprisen til et system dersom man klarer seg med en brikke.

 

Selvbygg av PC markedet er heldigvis forsvinnende lite, og jeg håper virkelig ikke "entusiaster" vil stå i veien for nødvendig innovasjon fordi de på død og liv skal sette GPUen i kabinettet selv.

Lenke til kommentar

Tror grunntanken i disse uttalesene ligger litt lenger frem og ikke er tenkt i dagens arkitektur. I første omgang kan det gjelde integrerte mellomklasse-løsninger, men på lengre sikt er det snakk om en total arkitektur-endring. Se f.eks denne artikkelen:

 

AMD has to buy ATI to survive

 

Den er rett nok fra en "se og hør"-ekvivalent, men flere tilsvarende artikler viser samme trend, og omhandler typisk Intels "project Kiefer" eller SUN's "Niagara".

 

Utdrag fra theinquirer.net:

 

if you add in GPU functionality to the cores, not a GPU on the die, but integrated into the x86 pipeline, you have something that can, on a command, eat a GPU for lunch. A very smart game developer told me that with one quarter of the raw power, a CPU can do the same real work as a GPU due to a variety of effects, memory scatter-gather being near the top of that list. The take home message is that a GPU is the king of graphics in todays world, but with the hard left turn Sun and Intel are taking, it will be the third nipple of the chip industry in no time.

 

Basically, GPUs are a dead end, and Intel is going to ram that home very soon. AMD knows this, ATI knows this, and most likely Nvidia knows this.

 

Vi må vente og se om denne spådommen blir virkelighet. Chip-bransjen har ofte tatt feil før. Essensen er i alle fall at GPU-ene blir mer og mer lik en CPU og delvis utspiller sin egen rolle. Likevel vil det nok være et marked for mer ekstrem ytelse og "high-end" grafikk-kort eller chip-er vil fortsette å eksistere.

Lenke til kommentar

Skjønner ikkje korfor folk stresser sånn. Dette e jo litt som når man gikk fra egne 3dkort som f.eks 3fx, til de kortene man har idag. Spillindustrien styrer allerede utviklingen av det meste som har med underholdningsartikler som pcer, tver konsoller, osv. Kommer ikkje til å skje over nattet dette her og du ska bare se at når/hivs gpu er integrert i cpu så kommer det en mengde forskjellige kombinasjoner der noen er beregnet på spillere andre ikkje.

 

Jepp 10øre fra meg.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...