Gå til innhold

Overtar SGI førsteplassen?


Anbefalte innlegg

Videoannonse
Annonse

Det geniale med denne maskinen er ikke først og fremst at den (foreløpig) har høyere regnekraft enn noen annen maskin i verden, men at den bare består av 20 maskiner. Konkurrentene har typisk 2 eller 4 prosessorer i hver maskin og for å få tilsvarende regnekraft må en derfor bruke hhv. 256 eller 128 ganger så mange maskiner gitt at en har like kraftige prosessorer. Altså 5120 eller 2560 maskiner.

 

Fordelen med å ha få maskiner er at en får enorme mengder minne som prosessorene kan adressere direkte. I dette tilfellet kan hver prosessor adressere 1/20 av det totale tilgjengelige minnet. For konkurrerende systemer så er dette tallet langt lavere. Typisk 1/5000 eller lavere for systemer basert på 2-way noder. For å få tilgang til de resterende 99,98% av minnet i clusteret (systemet) må en derfor bruke nettverket. Det vil ofte være tregere og vil alltid medføre at mer arbeid med ruting må utføres -> mer varme. Halvparten av effektforbruket i et typisk cluster i 2007 er ventet å ligge i kommunikasjonen.

 

Dette er vel også et godt bevis på at Itanium er noe av det beste som er å oppdrive. Ikke bare kan den adressere store datamengder, men den er også spesielt laget for det fra bunnen av. Dette har gitt seg utslag i egenskaper som gjør den mindre følsom for forsinkelse mot minnet (noe som er en nødvendighet i store systemer), den kan direkte adressere store mengder globale variabler (4M variabler, lag det den som gidder. Tabeller er ikke inkludert) og branch adresser kan gå "milevis" (22 bit mener jeg å huske, tilsvarer 64MB IA64 kode).

 

Gleder meg til Itanium teknologien blir tilgjengelige som workstation/desktop om 2-3 år. Kommer til å koste omtrent det samme som en Xeon/Opteron maskin koster i dag, men det blir vel verdt det.

Lenke til kommentar
int20h Skrevet 27/10/2004 : 11:00

  Overtar SGI førsteplassen?

Silicon Graphics kjemper om å overta ledelsen i kampen om verdens kraftigste superdatamaskin. Dermed vil IBM Blue Gene/L skyves ned til andreplass på listen.

 

 

Anbefaler IBM å gjøre en aldri så liten overklokk her :p

Lenke til kommentar

http://www.infoworld.com/article/04/07/28/HNnasalinux_1.html

 

Scientists will use Columbia to design equipment, simulate future space missions and model weather patterns. A portion of the $160 million system will also be made available to other government agencies and educational facilities

 

Noen timer i ny og ne på folding@home kunne gjort seg.

Forøvrig rart å tenke på hvor langt man kom innen romfart på 60 tallet med papir, blyant, regnestav og noen primitive computere.

 

Vi kan vel slå fast at utviklingen innen data har kommet mye lengere siden den gang enn utviklingen innen romfart.

Lenke til kommentar
int20h Skrevet 27/10/2004 : 11:00

  Overtar SGI førsteplassen?

Silicon Graphics kjemper om å overta ledelsen i kampen om verdens kraftigste superdatamaskin. Dermed vil IBM Blue Gene/L skyves ned til andreplass på listen.

 

 

Anbefaler IBM å gjøre en aldri så liten overklokk her :p

De kan jo overklokke den neste versjonen.

130 000 prossesorer i sync, klokket maks. kjølt ned med flytende nitrogen = lykke til ! :whistle:

Lenke til kommentar

Mye er på gang på denne fronten så hverken IBM eller SGI vil beholde "ledelsen" lenge eventuelt:

 

Cray Ships Cray XT3 Massively Parallel Supercomputer

The Cray XT3 supercomputer's architecture, co-designed with Sandia as part of the $90 million "Red Storm" system contract, delivers scalable application performance across a range of configurations from 200 to 30,000 processors, with peak performance of up to 144 teraflops (trillions of calculations per second).

 

Cray has shipped a 10-teraflop portion of the "Red Storm" system to Sandia. When fully installed, "Red Storm" will have over 40 peak teraflops of performance, more than 11,000 AMD Opteron processors, and 240 terabytes of disk storage. The system is expected to be at least seven times more powerful than Sandia's current ASCI Red supercomputer on real-world applications.

 

That is just the beginning. "Today's Cray XT3 is the first in a series of increasingly powerful scalable Cray products that exploit the Red Storm architecture. The architecture will allow capability to be increased with a simple processor upgrade," said Sandia's Bill Camp, Director of Computers, Computation, Information and Mathematics.

[...]

The Cray XT3 supercomputer's high-bandwidth, low-latency design-purpose-built for high performance computing (HPC) applications-delivers a much higher percentage of peak performance in practice than HPC clusters and other alternatives.

 

The Cray XT3 supercomputer uses Advanced Micro Devices Inc. HyperTransport technology and Opteron processors connected via a Cray low-latency, high- bandwidth, three-dimensional torus interconnect network.

 

System highlights:


  •  
  • A 3D torus direct connected processor (DCP) architecture tightly links processors to nearest neighbors.
     
     
  • A highly scalable compute system incorporates high performance AMD Opteron processors, high speed memory, an MPP optimized operating system, and a standards-based programming environment to deliver unmatched sustained application performance in configurations from 200 to 30,000 processors.
     
     
  • A high bandwidth, low latency interconnect with embedded communications processing and routing offers total interconnect bandwidth of more than 100 terabytes/second.
     
     
  • High speed, global I/O is scalable to over 100 gigabytes/second of I/O (input/output) bandwidth and hundreds of terabytes of parallel disk storage.
     
     
  • A tightly integrated management and operating system provides high reliability and is designed to run full-system applications to completion.

Les mer om Cray XT3 her:

http://www.cray.com/products/xt3/index.html

 

:w00t:

 

P.S. Jeg må forøvrig bare legge til at Linpack benchmarken som teraflop-tallet kommer fra er en håpløs dårlig indikator på reell ytelse.

Endret av snorreh
Lenke til kommentar
Om x antall år så er PC'n like kraftig, og da kan vi nyte oppløsninger og detalj nivå i spill som er bedre enn virkeligheten!  :!:

Om "Moores lov" av typen dobbel ytelse hver 24 måned fortsetter inntil dette inntreffer så er x = 28 år.

 

(...)

 

Lurer på om det gjør vondt å poste Opteron nyheter i alle tråder som omhandler andre prosessortyper. Uansett relevans liksom :hmm:

Endret av Knick Knack
Lenke til kommentar

Om "Moores lov" av typen dobbel ytelse hver 24 måned fortsetter inntil dette inntreffer så er x = 28 år.

 

Moores lov sier ikke noe om ytelsen på maskinen, mer derimot om transistortettheten. Videre sier det at denne vil dobles omtrent hver 18. måned.

 

"Tidligere" (pre-2004) brukte man riktignok (mye av) den økende transistortettheten til å kunne klokke høyere, (fra .13-0.9 micron), men nå om dagen bruker man den økende tettheten i større grad til å øke cachemengden på CPU'en. Dette gir også en ytelsesgevinst, men den dobles definitvt ikke hver 18. måned.

Lenke til kommentar
kom på en ting. hvorfor brukes ikke disse maskinene til rendring (eller gjør de). de kunne jo ha leid ut super dataen til firmaer for å rendre ting. hadde vel ikke tatt så mange timene å rendre en film...

De fleste renderoperasjon er "embarassingly parallell", noe som betyr at det behøves svært lite kommunikasjon mellom de forskjellige nodene i clusteret når man først har startet.

 

De fleste vitenskapelige simuleringer derimot, er svært avhengige av kommunikasjon mellom nodene underveis.

 

Mye av styrken til high-end maskinene fra IBM, SGI, Cray etc. er at de har svært god intra-maskin kommunikasjon. Dette tar de seg naturligvis godt betalt for, men til rendering er nok pengene bedre brukt andre steder.

 

Det skal dog bemerkes at grensene selvsagt er flytende.

Lenke til kommentar
kom på en ting. hvorfor brukes ikke disse maskinene til rendring (eller gjør de). de kunne jo ha leid ut super dataen til firmaer for å rendre ting. hadde vel ikke tatt så mange timene å rendre en film...

De som har behov for rendering av masse film har enten egne maskiner eller låner. De bruker imidlertid ikke slike stormaskiner som SGI har lagd her fordi de er for dyre. I steden bruker de "billige" PC'er koblet sammen med et billig netverk. Typisk Gigabit Ethernet. Årsaken til at de kan bruke slike billige komponenter er at rendering av film kan brytes opp i veldig mange små oppgaver og da har slike clustre av mange billige maskiner en stor pris/ytelse fordel.

 

el-asso: Hadde det bare hatt form som noe annet enn en reklamekampanje og hatt noe innhold og relevans så skulle jeg vel vært enig. Men dette er et repeterende fenomen fra en spesiell person. Ingen andre driver med slik systematisk OT forsøpling så langt meg bekjent.

Lenke til kommentar

Om "Moores lov" av typen dobbel ytelse hver 24 måned fortsetter inntil dette inntreffer så er x = 28 år.

 

Moores lov sier ikke noe om ytelsen på maskinen, mer derimot om transistortettheten. Videre sier det at denne vil dobles omtrent hver 18. måned.

 

"Tidligere" (pre-2004) brukte man riktignok (mye av) den økende transistortettheten til å kunne klokke høyere, (fra .13-0.9 micron), men nå om dagen bruker man den økende tettheten i større grad til å øke cachemengden på CPU'en. Dette gir også en ytelsesgevinst, men den dobles definitvt ikke hver 18. måned.

.... og det forklarer kanskje hvorfor jeg ord la meg slik:

"Moores lov" av typen dobbel ytelse hver 24 måned
Lenke til kommentar
Gleder meg til Itanium teknologien blir tilgjengelige som workstation/desktop om 2-3 år. Kommer til å koste omtrent det samme som en Xeon/Opteron maskin koster i dag, men det blir vel verdt det.

Ingenting tyder på at det kommer til å skje, prisutviklingen til Itanium går mot mer kostbare systemer fremfor mer rimeligere systemer. Det at HP slutter å selge Itanium-arbeidsstasjoner samt at de større programvare-selskapene har sluttet å porte arbeidsstasjon/desktop-programvare til Itanium er klare indikatorer på at denne plattformen er lite egnet for dette markedet. Det har selv Intel innsett nå:

 

Intel's Barrett: More to Life than Gigahertz

Hewlett-Packard Co. canceled the Itanium workstation. Your thoughts?

 

Itanium has turned out to be a very viable competitor in a section of the market: the enterprise server—big iron. It competes with SPARC, it competes with [iBM's] Power. It's replacing [HP's] Precision Architecture and Alpha. It is a big-iron machine.

Lenke til kommentar
Om x antall år så er PC'n like kraftig, og da kan vi nyte oppløsninger og detalj nivå i spill som er bedre enn virkeligheten!  :!:

Om "Moores lov" av typen dobbel ytelse hver 24 måned fortsetter inntil dette inntreffer så er x = 28 år.

Moore's Law broken, chip boffin re-iterates

Laszlo Kish at Texas A&M University, said there is too much thermal "noise" in small chips for the density of transistors to continually increase, as "Moore's Law" suggests.

 

Of course, the "law" is not really a law at all, but has proved a very useful marketing tool for Intel over the last 25 years or so.

 

In a note to the INQ this morning, Laszlo Kish said: "Nobody has realised yet that stepping down from 4GHz means stepping back from further miniaturisation, which is identical with the immediate break of Moore's Law".

 

He said then the problem of thermal noise had the potential to break Moore's Law.

 

In fact, in the paper published by Kish two years ago, he said: "The only way to get around this effect would be either giving up.. the integration density that is itself Moore's Law, or giving up.. the clock frequency. However, that would be contradictory because increasing the clock frequency is one of the most important reasons for the miniaturisation efforts".

 

However, this is not the attitude that Intel itself is taking. It insists that Moore's Law is good for another 10 years at least

Lenke til kommentar
Gleder meg til Itanium teknologien blir tilgjengelige som workstation/desktop om 2-3 år. Kommer til å koste omtrent det samme som en Xeon/Opteron maskin koster i dag, men det blir vel verdt det.

Ingenting tyder på at det kommer til å skje, prisutviklingen til Itanium går mot mer kostbare systemer fremfor mer rimeligere systemer. Det at HP slutter å selge Itanium-arbeidsstasjoner samt at de større programvare-selskapene har sluttet å porte arbeidsstasjon/desktop-programvare til Itanium er klare indikatorer på at denne plattformen er lite egnet for dette markedet. Det har selv Intel innsett nå:

 

Intel's Barrett: More to Life than Gigahertz

Hewlett-Packard Co. canceled the Itanium workstation. Your thoughts?

 

Itanium has turned out to be a very viable competitor in a section of the market: the enterprise server—big iron. It competes with SPARC, it competes with [iBM's] Power. It's replacing [HP's] Precision Architecture and Alpha. It is a big-iron machine.

Med ingen ting så regner jeg med at du inkluderer at IPF ser ut til å få bedre ytelse/tråd enn alle andre prosessortyper. Det kommer til å bli et viktig konkurranse fortrinn i workstation segmentet. Ja, jeg tenker på Millingthon, Montvale og Dimona.

 

Kanskje på tide at du jekker ned den ekstreme trangen til å rakke ned på denne teknologien. Jeg fatter ikke hvor motivasjonen til å kontinuerlig rakke ned på en TEKNOLOGI kommer fra.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...