Gå til innhold

Intel satser mot "high-end"-grafikk


Anbefalte innlegg

Videoannonse
Annonse
Ikke for privatmarkedet?

I utgangspunktet posisjoneres prosessoren ikke mot den vanlige bruker, men utvikles for bransjer som krever spesielt høy prosessorintensitet - f.eks. forskningsprosjekter, simuleringer, analyser og visualisering.

 

Fusion-konkurrent

Dette ser på mange måter ut til å bli en konkurrent til AMDs "Fusion"-prosjekt, der man søker å smelte sammen CPU-en og GPU-en på én enkelt sokkel.

 

Dette må da nesten være motsetninger? Fusion skal vel ikkje rettes mot profesjonelle?

Endret av Pusur1993
Lenke til kommentar
Vill også tro at sammensmelting vill føre med seg kraftig minsking av strømforbruket til en pc

9534149[/snapback]

Jeg tror at endring av instruksjonssettet vil gi en mye større reduksjon i strømforbruket til en PC. Sammensmeltingen vil sikkert bidra en del det også, særlig fordi kjøleløsninger begrenser seg i praksis til rundt 150 til 200W på én brikke. To brikker (CPU + GPU forskjellige steder i systemet) har til nå tillatt en effektbegrensning på 2* 150 til 2* 200W. Gevinstene på grunn av at man ikke trenger PCIe-kontrollere i begge ender og redusert varmeutvikling i northbridge vil sikkert bli spist opp av oppjusterte klokkehastigheter.

Lenke til kommentar

Slik jeg forstår det, er ikke dette så veldig grafikk relatert, simuleringer er mest CPU krevende og mer fysikk relatert, fremvisningen av en simulering trenger heller ikke være übergrafisk. Forskere mer interessert i dataene til resultatet av en simulering enn hvordan det ser ut på en skjerm.

 

Intel har også for det meste kun erfaring med lowend grafikk til 2d bruk.

Lenke til kommentar
Slik jeg forstår det, er ikke dette så veldig grafikk relatert, simuleringer er mest CPU krevende og mer fysikk relatert, fremvisningen av en simulering trenger heller ikke være übergrafisk. Forskere mer interessert i dataene til resultatet av en simulering enn hvordan det ser ut på en skjerm.

I dag utføres det meste av simuleringer på CPU av gammel vane. Det betyr ikke at det ikke er et stort potensiale i å la GPU-lignende arkitekturer gjøre de samme beregningene. Siden grafikkortenes barndom for ca 10 år siden har de nå utviklet seg til programmerbare massivt parallelle prosessorer med et enormt potensiale for parallelle beregninger. Det er nettopp disse egenskapene man nå ønsker å flytte over fra CPU til GPU. Resultatet må ikke nødvendigvis vises på skjerm, men kan skrives tilbake til disk eller systemminne.

 

For å trekke paralleller til biler: Hvis verden kun hadde sett ulike 1-person-kjøretøyer som mopeder, scootere og motorsykler og det plutselig ble utviklet massivt parallelle kjøretøyer (lastebiler) til frakt av f.eks pakker og varer så ville det revolusjonert landtransport av varer. Men de samme kjøretøyene kan også lett bygges om til massivt parallell persontransport: busser. Tradisjonelt sett har CPUer vært dataverdens svar på mopeder og motorsykler mens GPUer har vært dataverdens svar på massivt parallell varetransport. Forholdsvis enkel ombygging og omprogrammering av GPUer åpner for en revolusjon av andre bruksområder. De første prosjektene med slik omprogrammering, som f.eks folding@Home, har vist svært gode resultater med ytelseøkninger på flere titalls ganger i forhold til å kjøre de samme oppgavene på CPUer. Ikke all programvare egner seg for slik omprogrammering, men den programvaren som gjør det har et enormt potensiale for bedre ytelse. Det teoretiske potensialet er over hundre ganger bedre ytelse på et moderne skjermkort for desktop enn en moderne firekjerneprosessor. Et så stort potensiale som over 100 ganger bedre ytelse mener jeg kvalifiserer for berettiget bruk av ordet revolusjon.

 

Intel har også for det meste kun erfaring med lowend grafikk til 2d bruk.

9535400[/snapback]

Intel har midler for å gjøre det meste. Blant annet utvikle gode GPUer for 3D. Intel har lang erfaring med 3D, men kun budsjettløsninger. Den fremviste 80-kjerners prototype-CPUen er også et langt steg i retning av en god massivt parallell prosessor, også kalt GPU.

Lenke til kommentar
Litt kjipt om man vil bytte grafikkort. Må bytte både prosessor og grafikkort, det kommer til å bli dyrt det.

9538196[/snapback]

Nå vet jeg ikke hvordan intels løsning blir men det kan jo tenkes at de vil gjøre det på samme måte som AMDs "Fusion". Altså å ha både integrert grafikk i prosessoren og ha PCIe-porter for grafikkort slik at man kan velge om man vil bruke den integrerte grafikken, eget grafikkort eller begge deler. En annen mulighet er at intels løsning er ment som et eget topplinje skjermkort og ikke en CPU + GPU i samme pakke.

Lenke til kommentar
En annen mulighet er at intels løsning er ment som et eget topplinje skjermkort og ikke en CPU + GPU i samme pakke.

9538655[/snapback]

Evt. begge deler, CPU+GPU i samme pakke for low end grafikk eller fysikk og dedikert skjermkort for high end. Man skal kanskje ikke se bort ifra at Intels oppkjøp av Havok er urelatert til dette.

AMD snakket om egne instruksjoner i forbindelse med Fusion. Kan det være relatert til SSE5?

Lenke til kommentar

Jepp, du er nok inne på noen viktige ledetråder nå. Jeg tror det stemmer det du sier.

 

Blant annet vil Intels oppkjøp av Havok sette en rask stopper for samarbeidet mellom AMD/ATI og Havok. Enten direkte brudd på samarbeidet eller gjennom den vanlige måten ved at Intel ødelegger for AMD/ATIs ytelse ved å gjøre at intel-kompilatoren slår av mest mulig funksjoner (SSE-utvidelser) dersom programmet kjøres på en AMD/ATI-prosessor. Nå er dessverre intel-kompilatoren ganske vanlig å bruke. Programvareselskaper gjør seg selv en bjørnetjeneste ved å bruke den. Nøytrale kompilatorer vil gi god ytelse på både AMDs og Intels prosessorer fordi det ikke er noen aktiv ytelsehindring innebygget om man bruker "feil" prosessor.

 

SSE5 vil i følge AMD være en utvidelse som går langt i retning av å ta i bruk GPU i vanlige beregninger og skal komme samtidig med Fusion-prosessorene. Dette er prosessorer som de tidligere har sagt vil være en sammensmelting (fusjon) av CPU og GPU. At AMD nå mister samarbeidet med Havok vil trolig sette noen kjepper i hjulene for Fusion-prosjektet. Fusion vil nok bli produsert etter planen men programvareoptimaliseringen blir kanskje ikke så bra som om Havok fortsatt var med på laget.

Lenke til kommentar
Vill også tro at sammensmelting vill føre med seg kraftig minsking av strømforbruket til en pc

9534149[/snapback]

Jeg tror at endring av instruksjonssettet vil gi en mye større reduksjon i strømforbruket til en PC. Sammensmeltingen vil sikkert bidra en del det også, særlig fordi kjøleløsninger begrenser seg i praksis til rundt 150 til 200W på én brikke. To brikker (CPU + GPU forskjellige steder i systemet) har til nå tillatt en effektbegrensning på 2* 150 til 2* 200W. Gevinstene på grunn av at man ikke trenger PCIe-kontrollere i begge ender og redusert varmeutvikling i northbridge vil sikkert bli spist opp av oppjusterte klokkehastigheter.

9534632[/snapback]

Det er noe av det som gjør meg skeptisk til å ha cpu og gpu på samme brikke, det andre er minne båndbredde og minne hastighet. Hvis cpuene og gpu skal dele samme minne vil det øke belastingen på minnebussen til prosessorern, alle skjermkort bruker raskere minne en systemminnet, i tillegg til at dette er spesial minne for grafikk. Du vil kunne tjene på å knytte cpu og gpu tettere sammen, spørsmålet er om dette ville oppveie minne problemet.

 

I tillegg har du som du sier varme problemet, du ønsker ikke for mange varme komponenter på prosessor chipen.

 

En løsning hadde vært å legge en gpu/ vektor prosessor som en ekstra prosessor i et to prosessor system, amd jobber med et slikt prosjekt, at du kan koble andre enheter til hypertrasport, det virker spennende.

Lenke til kommentar

Minne er et problem ja. Det kan hende de må montere raske minnebrikker på prosessormodulen, omtrent som intel plasserer to silisiumbrikker på firekjerneprosessorene sine. Uten minne på prosessormodulen tror jeg det vil bli en rent low-end løsning når det kommer til grafikk. Dvs. GPUen kan jo fortsatt akselerere andre programmer og fysikk.

 

I tillegg har du som du sier varme problemet, du ønsker ikke for mange varme komponenter på prosessor chipen.

Vel, den saken har to sider og jeg ser på det som positivt at kombineringen vil gi et lavere totalt effektforbruk. Det vil gi mer kompakte og stillegående samtidig som det er minimalt med ytelse som ofres.

 

Et forenklet eksempel: Hvis man tar en CPU på 100W og en GPU på 100W og kombinerer de og samtidig fjerner PCIe-kontrolleren fra en nordbro på 20W så vil man redusere effektforbruket på flere plasser. Den delen av CPU som blir igjen utvikler kanskje 90W, GPUen utvikler kanskje 90W og nordbroa blir 10W. Da senkes totalen fra 220W til 190W. I tillegg vet vi at en brikke på 180W er vanskelig å kjøle så da må nok systemet klokkes ned litt. F.eks 20% ned. Ytelsen vil fortsatt være svært god samtidig som man får et system som utvikler rundt 100W totalt (CPU+GPU+nordbro). Dvs. ekstremløsningene vil nok lide en smule av lavere hastigheter men vanlige folk vil få et mer stillegående system som fortsatt har svært god ytelse.

 

En løsning hadde vært å legge en gpu/ vektor prosessor som en ekstra prosessor i et to prosessor system, amd jobber med et slikt prosjekt, at du kan koble andre enheter til hypertrasport, det virker spennende.

9541547[/snapback]

AMD har allerede hatt en sånn løsning i flere år:

http://www.xtremedatainc.com/xd1000_brief.html

http://www.linuxdevices.com/news/NS7630000844.html

http://www.xilinx.com/products/silicon_sol...rtex5/index.htm

 

En løsning med AMD GPU på den ene sokkelen og AMD CPU på den andre vil bare bli en variant av dette.

Lenke til kommentar
Jepp, du er nok inne på noen viktige ledetråder nå. Jeg tror det stemmer det du sier.

 

Blant annet vil Intels oppkjøp av Havok sette en rask stopper for samarbeidet mellom AMD/ATI og Havok. Enten direkte brudd på samarbeidet eller gjennom den vanlige måten ved at Intel ødelegger for AMD/ATIs ytelse ved å gjøre at intel-kompilatoren slår av mest mulig funksjoner (SSE-utvidelser) dersom programmet kjøres på en AMD/ATI-prosessor. Nå er dessverre intel-kompilatoren ganske vanlig å bruke. Programvareselskaper gjør seg selv en bjørnetjeneste ved å bruke den. Nøytrale kompilatorer vil gi god ytelse på både AMDs og Intels prosessorer fordi det ikke er noen aktiv ytelsehindring innebygget om man bruker "feil" prosessor.

 

SSE5 vil i følge AMD være en utvidelse som går langt i retning av å ta i bruk GPU i vanlige beregninger og skal komme samtidig med Fusion-prosessorene. Dette er prosessorer som de tidligere har sagt vil være en sammensmelting (fusjon) av CPU og GPU. At AMD nå mister samarbeidet med Havok vil trolig sette noen kjepper i hjulene for Fusion-prosjektet. Fusion vil nok bli produsert etter planen men programvareoptimaliseringen blir kanskje ikke så bra som om Havok fortsatt var med på laget.

9540345[/snapback]

 

 

Ja, lover ikke godt for verken AMD eller Nvida det sleipe oppkjøpet der. meget bekymringsfult.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...