Gå til innhold

Nvidia sikter mot superdatamaskiner


Anbefalte innlegg

Videoannonse
Annonse
Selv om den teoretiske ytelsen er til stede er det fortsatt en lang vei å gå for både AMD/ATI og Nvidia før grafikkprosessorer kan erstatte dagens løsninger. En av de største utfordringene ligger i at selve programvaren må optimaliseres for parallell eksekvering.

Parallelliteten er definitivt på plass allerede, noe som er ekstremt viktig når man skal benytte servere med 200 000 prosessorer.

 

Problemet er nok at en GPU er en vesentlig forskjellig prosessor. Både i instruksjonssett og intern struktur (busser mellom de ulike prosesseringsenhetene) er veldig forskjellig. Det krever grunnleggende forandringer av instruksjoner og data for å kunne utnyttes effektivt. CPU-arkitekturer har meget gode kompileringsverktøy med lang erfaring bak. Grafikkprosessorer har ikke i nærheten av like god kompileringsstøtte. Det er dette jeg tror er den største flaskehalsen som hindrer utviklere å kompilere for GPU i stedet for å kompilere for CPU.

 

Forøvrig kan jo forkortelsene GPU/CPU diskuteres i denne sammenhengen.

Lenke til kommentar
Men er vel litt begrensninger i en gpu på hva slags operasjoner den kan utføre kontra en cpu? Simen1: forklar gjerne :p

GPU kan gjøre stort sett det samme som CPU, men den er bygget langt mer spesielt for parallelle beregninger. F.eks kan man kalle hver Unified shader for en prosesseringskjerne. Med 128 shadere som gjør 2 operasjoner per klokkesyklus så blir det rimelig heftig parallell ytelse selv om klokkefrekvensen er 1/4 av dagens raskeste x86-CPU'er med 4 prosesseringskjerner. Nå er ikke prosesseringskjernene til x86-CPUer og shaderne til GPU-er direkte sammenlignbare men de kan litt forenklet gjerne sees på som egne prosessorkjerner.

 

En digresjon: Grunnen til at skjermkort har minnebåndbredder i størrelseorden opp til 128 GB/s mens vanlige prosessorer bare har en liten brøkdel er at instruksjoner og data går mye raskere inn og ut av en GPU enn av en CPU. Det skyldes igjen forskjellig ytelse i praksis.

Lenke til kommentar

Som Simen1 seier, så er det vel meir Software det står på enn Hardware.

 

Eg vil faktisk trekke en liten paralell til Folding sitt prosjekt, der siste HD seriane fra AMD\ATI kan folde, med stor ytelse.

 

Eg vil også påstå at når software biten er meir på plass til Storserver bruk, så blir en samansmelting av CPU og GPU enda meir aktuelt, slik som i AMD sitt nye prosjekt (som eg ikkje husker navnet på, Spider?)

 

Økt salg av GPU kjerner, vil vel forhåpentligvis forbedre utviklinger i fleire retninger enn det som vi har no.

 

Ta f.eks siste skjermkort, der skjermkort med 1GPU trekker 150W. det blir SYKE mengder med 1000 Gpuer. Men fortsatt er bedre med 1000x150W enn 200.000x95 (for å ta eit døme)

 

Simen1: Økt minnebandbredde, og stor mengde minne bør vel absolutt vere effektivt for Virtualisering?

Burde ikkje f.eks eit kort i størrelse ATX, med f.eks 4 GPU'er, samt en liten CPU som "admin", og shared memory vere noke som er oppnålig?

 

GPU Blad til servere kjem vel med det her også.

 

GPU+ mye minne og SSD = STOR minnebandbredde, og LAV aksesstid.

Endret av Solefald
Lenke til kommentar
Simen1: Økt minnebandbredde, og stor mengde minne bør vel absolutt vere effektivt for Virtualisering?

Ja, men det er dessverre to motsetninger. Mye minne og høy minnebåndbredde er vanskelig å kombinere. Så raskt minne som GPU liker er nødvendig å integrere på samme kretskort som GPUene siden minneporter virker sterkt begrensende på hastigheten. Hastigheten begrenser også antall minnebrikker per kanal til 1.

Lenke til kommentar

Jeg tror ikke Nvidia har noe som helst sjanse til å dominere HPC markedet slik de spår her. Både Intel, IBM og AMD/ATI har langt bedre forutsetninger for å levere løsninger i dette segmentet fordi de har egne CMOS fabrikker og enge general purpose prosessorer (CPU) med tilhørende hardware/software infrastruktur. Denne infrastrukturen mangler nvidia fullt og helt og den tar lang tid å bygge opp og enda lengre tid for å bli moden og akseptert i markedet.

Lenke til kommentar
Vi kan tenke oss at de fleste kommersielle superdatamaskinmiljøene ikke helt uten videre vil godta at GeForce eller Radeon plutselig danner grunnlaget for hele kalkulasjonsplattformen.

 

Fint om Nvidia og andre pressar seg fram i dette markedet, men eg trur dei jammen skal få jobbe for å få tillit i dette miljøet. Dette er ikkje gjort i ei handvending.

 

Dog kan konkurransen fra dei ideelt sett, i framtida, vere med på å tvinge dei gamle tunge selskapa til å utvikle enda betre produkt.

Lenke til kommentar

Tvert i mot. Det burde blitt premiert av å ha slikt her i Norge hvor vi kan utnytte varmen til oppvarmingsformål store deler av året. Plasserer man slikt i Spania så får man ikke utnyttet varmen fornuftig og man må til og med doble strømforbruket fordi kjøleanlegget krever omtrent like mye som maskina i seg selv.

Lenke til kommentar

Burde blitt ja ;) men du ser Diesel årsavgifta stiger, bensin årsavgifta synker, men staten vil ha folk over på Diesel.

 

Nok OT

 

Prismessig så bør det her vel legge seg i samme pris klasse som eit normalt hovedkort?

 

ting som eit vanlig serverhovedkort bruker, trenger vel alltids ikkje å vere nødvendig på kortet med GPU'er på

Lenke til kommentar

Nvidia har jo allerede Tesla desksidemaskinene sine som ved hjelp av CUDA kan nyttes til å beregne mye mer enn bare grafikk. dette er vel greit for de som vil ha mye regnekraft i en liten pakke.

 

NVIDIA vil også bruke CUDA til å portere Ageia PhysX rammeverket over til GPU. Så det skjer absolutt ting her og NVIDIA har vært flinke på det med programvare hittil, C for graphics (Cg) og CUDA for å nevne noe.

Lenke til kommentar

Først NVidia har allerede konkuranse i dette markedet fra IBM med sin Cell løsning. De holder nå på med Roadrunner (http://news.zdnet.com/2100-9584_22-6112439.html) som er et kluster med blanding av standard CPU og Cell prosessorer.

 

Videre så er virke måten til CPU og GPU/Cell (og tidliger Crays supercomputer chiper) helt forskjellige og egner seg til andre typer oppgaver. Der CPU er bra på logikk/søk mens "shadere" er gode tallknusere.

 

Dette sier og Folding@Home hvor man har 10 doblet kraften fra rundt 100GFlops til over 1Terra etter at PS3 (med Cell) er kommet med i bildet med bare en brøkdel av antallet enheter. Likevel henstiller FoAH om å fortsette med CPU cores fordi de kan løse helt andre oppgaver på disse enn det som er tilfellet med PS3/GPU cores.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...