Gå til innhold

Tror på sammensmelting av CPU/GPU


Anbefalte innlegg

Videoannonse
Annonse
Foreløpig er det ingen prosessorer på de offisielle veikartene til AMD eller Intel som bekrefter CPU-er med GPU-kjerne®, men mer om dette kommer kanskje på IDF eller senere.

Det finnes allerede veikart som kan tolkes i retning av integrerte GPUer:

AMD Talk Modular.

Hvis man ser på presantasjonen og der det grå feltet med "other" så kan det f.eks være GPU-funksjonalitet.

 

Her er et intervju med visepresident og teknologisjef Phil Hester i AMD som også nevner noe om modulær design.

 

Personlig har jeg tro på at det kan være snakk om å lage en hetrogen prosessor med ulike typer kjerner. Sansynligvis 2-4 tradisjonelle kjerner og en drøss massivt parallelle småkjerner som kan kjøre f.eks grafikk, fysikk og andre massivt parallelle oppgaver.

Lenke til kommentar
Når jeg leser dette er det en ting som spøker i underbevisstheten... vaaarmt!

 

Selvfølgelig er det sikkert mulig å fikse dette med mindre effektkrevende prosessorer, men sett i forhold på hvor mange watt dagens prosessorer forbruker (AM2: 125W ??) + dagens GPU´er, så ser jeg for meg en riktig smeltedigel...  :whistle:

6950187[/snapback]

Overgangen fra 1 til 2 kjerner gikk da fint uten at vi fikk glovarme prosessorer. Det var jo folk som spådde at 1+1=2 når det kom til effekt men det stemte altså ikke. Firekjerner ser heller ikke ut til å gi voldsomme økninger i effekt. For å dra frem noen eksempler: Turion X2 på 31W (rettet) , Athlon64 X2 3800+ 35W, Core 2 Duo 35W til bærbare, Core 2 Quad til stasjonære: 80W og Xeon 53xx til på 80W. Hvem hadde trodd det for et par år siden da AMDs enkeltkjerner var på 45-105W og Intels heteste potet prescott var på over 130W på det meste og ned mot 95W på det minste?

Endret av Simen1
Lenke til kommentar
Når jeg leser dette er det en ting som spøker i underbevisstheten... vaaarmt!

 

Selvfølgelig er det sikkert mulig å fikse dette med mindre effektkrevende prosessorer, men sett i forhold på hvor mange watt dagens prosessorer forbruker (AM2: 125W ??) + dagens GPU´er, så ser jeg for meg en riktig smeltedigel...  :whistle:

6950187[/snapback]

 

Kan jo godt tenkes at i.o.m grafikkporten da vil forsvinne, vil vi se en endring i layout på hovedkort. Kan da godt hende at vi vil få en stock kjøler som er større (tenker først og fremst på bredde og lengde), samt større og mer stillegående vifter.

Lenke til kommentar
Foreløpig er det ingen prosessorer på de offisielle veikartene til AMD eller Intel som bekrefter CPU-er med GPU-kjerne®, men mer om dette kommer kanskje på IDF eller senere.

Det finnes allerede veikart som kan tolkes i retning av integrerte GPUer:

AMD Talk Modular.

Hvis man ser på presantasjonen og der det grå feltet med "other" så kan det f.eks være GPU-funksjonalitet.

 

Her er et intervju med visepresident og teknologisjef Phil Hester i AMD som også nevner noe om modulær design.

 

Personlig har jeg tro på at det kan være snakk om å lage en hetrogen prosessor med ulike typer kjerner. Sansynligvis 2-4 tradisjonelle kjerner og en drøss massivt parallelle småkjerner som kan kjøre f.eks grafikk, fysikk og andre massivt parallelle oppgaver.

6950316[/snapback]

 

Jepp, men at dedikerte grafikkort kommer til å forsvinne fullstendig er vel en helt annen diskusjon.

Lenke til kommentar

For å forsette linkingen til andre som allerede har nevnt dette, Matt Pharr snakket om heterogene arktitektuer på årets Graphics Hardware konferanse, Interactive Rendering in the Post-GPU Era.

 

Jeg har dog snakket med ATI ingenører som hever at de vet like lite som oss om hva ATI/AMD sammenslåingen betyr, og at de foreløpig ikke jobbet på samarbeidsprosjekter med AMD. (Derimot jobbet de tre GPU generasjoner framover.)

Lenke til kommentar

Jeg er skeptisk til sammensmelting av cpu og gpu, siden det begrenser mulighetene til oppgradéring og tilpassing.

 

Jeg er spent på løsningen med minnet, siden grafikkminne har annen struktur enn systemminne. Skal systemminne brukes til alt må det gjøres noen endringer, ellers blir belastningen stor som i dagens system med delt grafikkminne.

 

Når jeg leser dette er det en ting som spøker i underbevisstheten... vaaarmt!

 

Selvfølgelig er det sikkert mulig å fikse dette med mindre effektkrevende prosessorer, men sett i forhold på hvor mange watt dagens prosessorer forbruker (AM2: 125W ??) + dagens GPU´er, så ser jeg for meg en riktig smeltedigel...  :whistle:

6950187[/snapback]

Overgangen fra 1 til 2 kjerner gikk da fint uten at vi fikk glovarme prosessorer. Det var jo folk som spådde at 1+1=2 når det kom til effekt men det stemte altså ikke. Firekjerner ser heller ikke ut til å gi voldsomme økninger i effekt. For å dra frem noen eksempler: Turion X2 på 25W, Athlon64 X2 3800+ 35W, Core 2 Duo 35W til bærbare, Core 2 Quad til stasjonære: 80W og Xeon 53xx til på 80W. Hvem hadde trodd det for et par år siden da AMDs enkeltkjerner var på 45-105W og Intels heteste potet prescott var på over 130W på det meste og ned mot 95W på det minste?

6950374[/snapback]

Turion X2 er vel på 31 - 35 W, Turion (enkeltkjerne) er på 25 - 35W. kilde
Lenke til kommentar

Jeg har sagt det før, og det ser ut som jeg blir nødt til å si det igjen.

 

1) Stopp litt. Tror dere som er redd for oppgraderingsmulighetene virkelig at grafikkporter på hovedkortet vil forsvinne? Tror dere virkelig at chipset og hk-produsenter vil gi blanke i gamere? Ærlig talt... tygg litt mer på det og dere vil skjønne hvor absurd det er å bekymre seg.

 

2) Selvsagt vil en integrering skje. Akkurat som da lydkort, nettverkskort og diverse porter ble integrert på hovedkort. Det er på denne måten man får billigere masseproduserte pc'er. Det er bare et spørsmål om tid før integreringen når dette nivået, slik at grafikk også vil sitte i CPU. Men det betyr ikke at vi vil miste mulighetene til å installere egne og bedre løsninger.

Lenke til kommentar
Jeg er spent på løsningen med minnet, siden grafikkminne har annen struktur enn systemminne. Skal systemminne brukes til alt må det gjøres noen endringer, ellers blir belastningen stor som i dagens system med delt grafikkminne.

 

Turion X2 er vel på 31 - 35 W, Turion (enkeltkjerne) er på 25 - 35W. kilde

6950515[/snapback]

Rettet.

 

Grafikk trenger ikke noe særlig rask responstid på minnet, men det gjør CPU. Jeg ser for meg at CPU vil få førsteprioritet i minnekontrolleren og at grafikk kan spise av all overskytende båndbredde, noe som ofte betyr 90% av minnebåndbredden. Minnebåndbredden er per i dag 12,8 GB/s med doble minnekanaler DDR2-800. Om ikke så mange måneder dobles dette til 25,6 GB/s med AMDs 4x4 quadfather. Om et par år byttes DDR2 ut med DDR3 og da kan vi få yttligere en dobling til 51,2 GB/s. Det er på høyde med dagens råeste skjermkort. F.eks har Radeon X1950XTX 64GB/s mens mellomklassekort som geforce 7600GT har 22,4 GB/s.

 

Ellers så svarte mad_arab veldig bra på noen av bekymringene. :thumbup:

 

Lavere valgfrihet blir det nok, men neppe så mye at det blir noe å bekymre seg for. F.eks vil det sikkert komme minst 2-3 ulike mengder med småkjerner på CPUen som kan kombineres med ulike CPU-hastigheter og mengder L2 cache. Det hele kommer an på speedbin og hvor mange defekte minikjerner og L2 cache det er. I tillegg vil nok kombinerte brikker neppe komme opp i toppsjiktet i grafikkmarkedet. Trolig vil det innta budsjettmarkedet først og så mellomklassemarkedet om det klarer. PCIe-portene vil nok fortsatt stå klare til å motta selvvalgte skjermkort. Akkurat som man har PCI-porter til lydkort, nettverkskort osv hvis man ikke vil bruke det innebygde.

 

En annen sammenligning er da FPU gikk fra å være en ekstern brikke til å bli en del av prosessoren. (ca 1992)

Lenke til kommentar
Trolig vil det innta budsjettmarkedet først og så mellomklassemarkedet om det klarer. PCIe-portene vil nok fortsatt stå klare til å motta selvvalgte skjermkort. Akkurat som man har PCI-porter til lydkort, nettverkskort osv hvis man ikke vil bruke det innebygde.

6950698[/snapback]

 

Ja, jeg håper denne spådommen slår til, jeg kunne gjerne tenkt meg at opptil mellomklasse ytelse var innebygd på hovedkortet, for oss som bare spiller en gang i blant hadde det vært fortreffelig.

 

AtW

Lenke til kommentar

En annen fin bieffekt av en sammenslåing er at varmebudsjettet på f.eks 65W deles på GPU og CPU. Dagens systemer med f.eks 89W til CPU og 100W til skjermkortet produserer mye varme og setter høye krav til strømforsyning og andre komponenter. En sammenslåing vil altså ikek bare senke kostnadene til kretskort, porter, minne, kjølere, osv, men også senke kostnaden på PSU og strømregningen. Særlig i land der de bruker aircondition til til å holde PC-rommene kjølige.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...