Gå til innhold

Cell + Opteron = ytelsesrekord


Anbefalte innlegg

Videoannonse
Annonse
Det jeg stusser litt på er at Opteron (AMD) er så sterkt representert i en slik "maskin", men havner ordentlig i bakevja på desktop markedet. Kan noen forklare akkurat den for meg?

For så store clustere er koblingen mellom nodene svært viktig for totalytelsen. AMD kan tilby HTX-bussen til det. HTX er "Hyper Transport External". Maskiner med Intelprosessorer har foreløbig ikke noe tilsvarende. Dermed får de en ulempe når det kommer til kommunikasjon mellom maskinene. Denne forskjellen har mye å si på så store maskiner. Derfor velges Opteron. Ganske forenklet forklart, så jeg regner med å å bli rettet på av AJ. :)

 

Og evnt hvor lang tid vil det ta før Cell CPU'en står i en vanlig desktop maskin? Mener, hvis den er så overlegen, burde den vel være skikkelig intr for hjemme markedet? PS3 er jo en knallmaskin med tanke på multimedia, så hvorfor ikke videreføre dette til oss vanlige?

Det er en spennende idé men det kan være en del "politikk" som hindrer produsentene i å kombinere disse brikkene. En annen ting er at programmererne får en stor utfordring med å skrive programmer som skal kjøre på både Cell og x86. Det blir nok mye dobbeltarbeid med å lage x86 + Cell-versjoner av all programvare inntil alle har maskiner med både x86 og Cell. Innen den tid har det vel også dukket opp en etterfølger til Cell.

 

Hittil har man kunnet kombinere Opteron med Xilink Virtex på hovedkort med to sokkel 940. Men så vidt jeg vet er det lite utbredt både maskinvaremessig og programvare til å utnytte kombinasjonen.

 

Derimot er det andre lignende løsninger i sikte. Både AMD og intel planlegger prosessorer med integrert grafikk med mange shader-prosessorer for hver x86-kjerne. Det er ikke så rent ulikt det å kombinere Opteron og Cell's 6-7-8 SPE-kjerner. Shadere på skjermkort egner seg godt til å kjøre flyttallsoperasjoner. Et skjermkort med f.eks 128 shadere egner seg svært bra til å kjøre massivt parallelle flyttallsoperasjoner. Men det trenger fortsatt mer modning. Om 1-2 år tror jeg det begynner å lysne på den fronten. (Først ute blir vel Nehalem-varianten Auburndale med integrert grafikk i CPUen)

Lenke til kommentar

Fortell mer om fluidmekanikken da Simen1, hvem presenterte hva?

 

Når det gjelder Opteron er den populær i tungregnesystem primært på grunn av minneytelse. PCI-Express basert koblinger gir muligens litt dårligere latency, men båndbredde er god nå.

Lenke til kommentar
Fortell mer om fluidmekanikken da Simen1, hvem presenterte hva?

 

Det var en konferanse i Trondheim 13-14 desember, i regi av Cesos. Der var det samlet 67 personer blant de fremste i verden på utvikling av algoritmer for fluidmeknaikk. Mer nøyaktig var det presentasjonen til Prof. Takashi Yabe fra Tokyo Institute of Technology som imponerte meg. Etter presentasjonen av algoritmene fikk vi se en del videoklipp fra hva hva han (les: de under hans ledelse på instituttet) hadde simulert på Cell-clusteret.

 

En av videoene viste en ca 1 minutt lang sekvens av bølger som skvulpet mot en strand og bevegde en del objekter som lå å strandkanten. Bølgene var brytende og detaljnivået var svært fint. Selv dråper og skum som ble generert av de brytende bølgene ble oppløst forbløffende virkelighetstro. Simuleringen og fysikken var selvsagt ikke basert på objekter sammensatt av 2D flater slik som i moderne spill, men ekte 3D objekter der hver kubikkmillimeter (eller hva gridet egentlig var på) ble beregnet. Dette er sinnsykt mye mer krevende enn å beregne fysikken til de 2D flatene vi ser i moderne 3D-spill. Simuleringen gikk i sanntid med ganske mange tidssteg per sekund. Videoen hakket ikke. En slik 60 sekunders sekvens med det detaljnivået ville man brukt mange dager eller kanskje uker på, på en Opteron-kluster med 32 kjerner. Sammenlignet med hva de andre deltagerne hadde fått til med sin x86 maskinvare så var japanerens bidrag suverent raskest i forhold til detaljnivået.

 

En franskmann hadde laget en bølgesimulator med svært høy oppløsning (1x1 km ned på cm-nivå) men det hadde tatt ganske lang tid på et 32 kjerners Opteron-kluster, samt at bølgene ikke var brytende men simple sinusbølger. Noe jeg vil kalle for juks i denne sammenhengen. De andre bidragsyterne hadde alt fra sære matematiske metoder å by på til simuleringer av bølger mot skip, tsunamier, drivstofftanker i båter og romfartøy, med mer.

 

Takashi kalte metoden for Cubic Interpolated Pseudo-particle (CIP) og hadde et adaptivt gridsystem de kalte Soroban Grid. Hele poenget med metoden og gridsystemet var at det forenklet dataparallelliteten og økte nøyaktighet per sekund brukt regnetid.

 

Clusteret var enkelt bygget opp av 16 ordinære Playstation 3-maskiner + en ordinær gigabit switsj + et eller annet Linux-system i bunnen.

Lenke til kommentar

Det er ikke så nøye Lars, bare det høres imponerende ut :p

 

 

Men seriøst: Jeg vet Del henger med på fagspråket og svaret var hovedsaklig til han, men jeg tenkte flere kunne ha interesse av å skumlese litt hvis de kjeder seg. :)

 

Tja... Jeg tror ikke fremtiden er å stappe titusenvis av prosessorer sammen. Jeg tror framtiden er parallellprosessering på skjermkort/GPU.

Det er egentlig to sider av samme sak. 16 Cell-prosessorer * 6 SPE per x86-prosessor kan godt sammenlignes med et skjermkort med 96 shadere per x86-prosessor. Det er store likheter. Hvordan man gjør det i praksis med plassering av spesialprosessorer, minnebåndbredde for å fôre de osv blir litt hipp som happ. Det er bare bra at de ulike utviklerne bruker litt ulike metoder slik at vi får et arkitektonisk mangfold som danner grunnlag for videre evolusjon av hardware. Den mest levedyktige metoden vil leve videre og nye løsninger vil springe ut fra den.

Lenke til kommentar

Må si jeg er imponert over kunnskapsnivået og dypen i innleggene til dere NTNU gutter. Studenter eller hva?

 

Må gjerne fortsette slik, for det er spennende lesning.

 

Simen1:

den videosekvensen dere fikk vist i regi Cesos, er det noen mulighet for å kunne få se et opptak av den og evnt hvordan det så ut?

 

Jeg tror vel heller ikke at fremtiden består i et giga cluster med tusenvis av CPUer, jeg heller mer til troen om en ganske så annen løsning hvor helt andre produksjonsteknikker og materialer kommer frem. Det grenser til filosofi (slik matte gjør på et vist nivå), uten at jeg helt kan forklare hva jeg har tro på fremover.

 

Spennende å lese slik informasjon og jeg suger til meg så godt jeg kan, selv om det er fagutrykk som jeg aldri har vært borti før. Sånt lærte ikke vi på høgskolen.. hehe :p

Lenke til kommentar
Simen1: den videosekvensen dere fikk vist i regi Cesos, er det noen mulighet for å kunne få se et opptak av den og evnt hvordan det så ut?

Jeg lette etter den en halvtime i går men fant hverken videoen, stillbilde av scenen, clusteret eller annet jeg kunne vise til. Dessverre.

 

Konferansepapirene fra Takashi Yabe er bare et relativt tørt vitenskapelig abstract.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...