Gå til innhold

Tror ikke på GPGPU


Anbefalte innlegg

Videoannonse
Annonse

Og siden 17. jumi 2008 Nvidia folding@home klient basert på CUDA.

 

At Intel ikke har tro på dette betyr lite for min del. Å si at det krever spesiell programvare blir litt fåfengt, det gjør i grunn alle arkitekturer som skal kjøre programmer. x86 kan ikke kjøre programmer uten OS og programmer laget for x86.

Endret av Theo343
Lenke til kommentar

Forsåvidt noe enig med Intel, men det hele koker egentlig bare ned til definisjoner. Dagens GPU er ikke general purpose nok og dagens CPU er ikke massivt parallell nok til å løse fremtidens utfordringer. Det er nokså opplagt at GPU vil bli mer GP og enkelte typer CPU vil bli mer parallell. Så det er egentlig bare et spørsmål om hva en vil kalle en slik brikke. Jeg synes massiv parallell CPU er mye bedre betegnelse enn GPGPU uavhengig av hvilket utgangspunkt en begynte å utvikle seg fra.

 

Forøvrig tror jeg Intel sin "x86 overalt" strategi bare kan gi suksess så lenge Intel er overlegen på CMOS produksjon. x86 er jo generelt sett ikke egnet til noe som helst bortsett fra at det er bakoverkompatibelt med det meste av software.

Lenke til kommentar
Forsåvidt noe enig med Intel, men det hele koker egentlig bare ned til definisjoner. Dagens GPU er ikke general purpose nok og dagens CPU er ikke massivt parallell nok til å løse fremtidens utfordringer. Det er nokså opplagt at GPU vil bli mer GP og enkelte typer CPU vil bli mer parallell. Så det er egentlig bare et spørsmål om hva en vil kalle en slik brikke. Jeg synes massiv parallell CPU er mye bedre betegnelse enn GPGPU uavhengig av hvilket utgangspunkt en begynte å utvikle seg fra.

 

Forøvrig tror jeg Intel sin "x86 overalt" strategi bare kan gi suksess så lenge Intel er overlegen på CMOS produksjon. x86 er jo generelt sett ikke egnet til noe som helst bortsett fra at det er bakoverkompatibelt med det meste av software.

 

Enig med deg.

Det kom jo ikke som en overraskelse at Intel beskytter sitt eget marked, det interesante er jo at det har kommet mange spennende løsninger som fungerer greit (cell) og som benytter seg av andre teknikker enn det x86 bruker.

 

Men som sagt så lenge Intel er dominant på markedet så blir det vel ikke store endringer, desverre så er bakoverkompatibiliteten såpass viktig for bedrifter at de driter i om de får 20x ytelsen med ny arkitektur.

Lenke til kommentar
Men som sagt så lenge Intel er dominant på markedet så blir det vel ikke store endringer, desverre så er bakoverkompatibiliteten såpass viktig for bedrifter at de driter i om de får 20x ytelsen med ny arkitektur.

Kommer litt an på hva som skal til for å utnytte ytelsesgevinsten. 20-50% ekstra ytelse ved å rekompilere er nok veldig ok for de med egen kode. Hvis en må skrive om koden så er det nok mange som lar både 10x og 100x seile sin egen sjø.

 

Hos oss har vi nettopp sagt nei takk til ca 10x ytelse ved å ikke bruke CUDA. Det var mye enklere og det virket mer fremtidsrettet å holde seg til vanlig C++ code til CPU (x86 for vår del, men det skal være trivielt å rekompilere til andre ISA, noe vi også vil teste). Konklusjonen er at det tar for mye tid å skrive kode for GPU med mindre du har veldig mye ressurser tilgjengelig per linje med kode som skal skrives. En må også påregne at koden må skrives om for å utnytte ytelsen i neste generasjon GPU, noe en ofte ikke behøver på CPU.

Lenke til kommentar
Hos oss har vi nettopp sagt nei takk til ca 10x ytelse ved å ikke bruke CUDA. Det var mye enklere og det virket mer fremtidsrettet å holde seg til vanlig C++ code til CPU (x86 for vår del, men det skal være trivielt å rekompilere til andre ISA, noe vi også vil teste)

Neste versjon av CUDA blir spennende. Der skal CUDA-kode også kunne kompileres for multicore x86 CPU'er.

 

Dessverre ikke så mye info public om dette enda.

http://www.beyond3d.com/content/articles/106/4

Lenke til kommentar

Sam_oslo: Problemet er at faktisk utnyttet ytelse på et cluster av maskiner der en benytter vanlig CPU gjerne er mye høyere enn ved bruk av GPGPU. Det er også problemer rundt I/O ytelse og minnekapasitet som er fullstendig uløst i GPGPU systemer. Videre er GPU gjerne fokusert på SP FLOPS mens de fleste algoritmer til HPC forutsetter DP FLOPS.

Endret av Anders Jensen
Lenke til kommentar
Intel har all grunn for å nekte GPGPU. Denne frykt og fornektelsen blir synlige når man sameligner denne superdtatamaskinen:

 

 

L_001625.788x590!.jpg

 

Som basert på denne HW.no artiklene, koster flere milioner kroner og klarer å leverer 70 Teraflopp ytelse med en "puslete GPU" for kr. 3000 som fort klarer å levere ett par Teraflops, da forstår man hvorfor Intel har så mye imot GPGPU.

Det kan jo hende at det koster noen millioner å skrive om all programvaren slik at den kan kjøre på en eller flere GPUer. Det er sikkert derfor det er benyttet Intel CPUer i den maskinen, jeg har vanskelig for å tro at de som kjøper slike maskiner ikke vet hva de kjøper.

Endret av Dj_eLmO
Lenke til kommentar

Anders Jensen: GPGPU er veldige ny og har sine barndomsykdommer. Programutviklere møter flere utfordringer fordi programutviklingsverktøyene er fremdeles optimalisert for CPU. Bla. fremdels finnes det flere utfordringer for minne håndtering/fordeling på GPU-baserte programmer. Men dette kan fort bli bedre i nyere verktøy, og problemene gjelder stortsett for "konvensjonelle" programmer for hjemme/kontor brukere. Når det gjelder tunge applikasjoner for research/industri/simulering som ofte krever superdatamaskiner, har vi allerede sett flere store gjennombrudd for å kunne bruke GPU på en effektiv måte. Som fesk. denne GPU Super pc laget av noen studenter/render.

 

Per idag, bruker industrien millioner på superdatamaskiner og de kan ha store besparelser ved å bruke GPGPU. Behovet og besparelsen er foreløpig ikke så for hjemmebrukere, men det kan komme med tiden.

 

 

Alereade finnes det flere flotte løsninger for forskning/simulering som kan gi stor ytelse på "rimelige" GPGPU-baserte maskinvare. Poenget er at en GPU-park bestående av 20 GPU for ca. kr. 100.000 kan fort slå en superdatamaskin som koster flere millioner kroner. Og dette bekymrer Intel.

Endret av Sam_Oslo
Lenke til kommentar

Forutsigbar uttalelse fra Intel ;)

 

Ellers blir det spennende å se om man greier å forene krefter i GPGPU-segmentet. Så lenge hver produsent sitter på sin egen API (CUDA, Stream/Close To Metal) ser jeg ikke at dette tar helt av - men potensialet er ganske så enormt imho. Blir spennende å se om OpenCL kan bidra til å forene kreftene :)

Endret av ibrotha
Lenke til kommentar
Intel har kommet med mye bra tidligere, men dette er et bomskudd.

 

Mulig jeg er litt farget av at jeg har nettopp levert en masteroppgave der temaet er CUDA/GPGPU og at med de resultatene jeg fikk er _langt_ bedre enn hva noen CPU klarer i dag. Men det er det jeg tror.

Nå er Intel sitt forslag å lage en GPU lignende arkitektur basert på x86 kjerner så din sammenligning er ikke relevant i dette tilfellet. Det vi snakker om er nvidia/AMD GPU vs Intel x86 "GPGPU". Klart x86 kompatibiliteten vil koste en del ytelse (50%+-?) i forhold til de skreddersydde instruksjonssettene nvidia/AMD benytter, men Intel har vesentlig bedre CMOS prosess som kan veie opp for dette.

Lenke til kommentar
Intel har kommet med mye bra tidligere, men dette er et bomskudd.

 

Mulig jeg er litt farget av at jeg har nettopp levert en masteroppgave der temaet er CUDA/GPGPU og at med de resultatene jeg fikk er _langt_ bedre enn hva noen CPU klarer i dag. Men det er det jeg tror.

Få høre mer om masteroppgaven din davel, ligger den ute på nett?
Lenke til kommentar
Hos oss har vi nettopp sagt nei takk til ca 10x ytelse ved å ikke bruke CUDA. Det var mye enklere og det virket mer fremtidsrettet å holde seg til vanlig C++ code til CPU (x86 for vår del, men det skal være trivielt å rekompilere til andre ISA, noe vi også vil teste)

Neste versjon av CUDA blir spennende. Der skal CUDA-kode også kunne kompileres for multicore x86 CPU'er.

 

Dessverre ikke så mye info public om dette enda.

http://www.beyond3d.com/content/articles/106/4

Spennende, vet du når CUDA2 forventes å gå ut av beta? Endret av Theo343
Lenke til kommentar
Patrick P. Gelsinger, Senior Vice President i Intel forteller at grunnen til at Intel ikke tror på GPGPU er behovet for spesiell programvare. Det hjelper pent lite med en god ide rent maskinmessig hvis man ikke har programvare som utnytter plattformen.

Merkelig uttalelse av IA64-forkjemperen Gelsinger. (IA64 krever spesiell programvare for å fungere)

 

Intel virker mer interessert i å gå den andre veien, nemlig å putte x86-kjerner inn i skjermkortene. Dette har selvfølgelig Intel allerede startet med, i form av sin Larrabee-løsning.

Dette er en rimelig meningsløs satsing da x86 slett ikke er bygget eller egnet for svært dataparallelle oppgaver. Går de denne veien må utvide x86 med et nytt instruksjonssett, som igjen krever spesiell programvare.

 

Å spre slik negativitet om GPGPU er bare et tegn på at de prøver å jekke ned utviklingstakten fordi de ligger etter på den fronten selv. Larrabee virker interessant nok, men slik som det er beskrevet her så tror jeg både AMD CTM og Nvidia CUDA har langt bedre potensiale og ikke minst: Har det tilgjengelig lenge før intel.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...